"por favor parem de nos chamar de slop" - Microslop

TThe PrimeTime
Computing/SoftwareBusiness NewsInternet Technology

Transcript

00:00:00- Tenho duas coisas muito importantes a dizer.
00:00:01Primeira, olha essa barba.
00:00:03Ok,
00:00:03de alguma forma estou acidentalmente deixando crescer uma barba.
00:00:06Segundo, eu li algo no LinkedIn, ok?
00:00:09Desculpa, mas aqui estamos.
00:00:11Olha isso.
00:00:12Uma reflexão sobre o ano à frente da nossa indústria.
00:00:15Isso é, claro, do CEO da Microsoft.
00:00:17E se você ler a carta,
00:00:19claro,
00:00:19ela continua e basicamente é só uma inspiração do chat GPT,
00:00:23tipo uma experiência onde você só quer se sentir muito bem,
00:00:26sabe?
00:00:27Um novo conceito que evolui bicicletas para a mente.
00:00:29De modo que sempre pensemos na IA como um andaime para o potencial humano em vez de um substituto.
00:00:35Uau, cara, ei, aí Satya, isso é tão inspirador.
00:00:38Tipo, cara, quantos prompts do chat GPT?
00:00:40Qual é o teu prompt, mano?
00:00:41Mano, qual é o teu prompt?
00:00:42Isso sim é inspiração.
00:00:44Mas algo que meio que chamou a atenção de todo mundo nisso tudo que gerou toneladas de memes,
00:00:50incluindo este,
00:00:50meu favorito aqui,
00:00:52Micro Slop,
00:00:52é esta linha aqui.
00:00:54Precisamos superar os argumentos de slop versus sofisticação e desenvolver um novo equilíbrio nos termos da teoria da mente que considere os seres humanos equipados com essas novas ferramentas amplificadoras cognitivas conforme nos relacionamos uns com os outros.
00:01:05Primeiro,
00:01:06quer dizer,
00:01:06IA não está nos ajudando a nos relacionar com ninguém,
00:01:08mas podemos deixar isso de lado.
00:01:09Ok, vamos deixar essa parte de lado.
00:01:11Mas essa ideia de que precisamos apenas superar os argumentos de slop.
00:01:14Não precisamos mais usar o termo slop.
00:01:15Ei, slop, slop simplesmente não é necessário.
00:01:17Não precisamos dizer isso, certo?
00:01:19Certo, manos?
00:01:20Tudo bem,
00:01:20então essa é a parte onde vou tentar destrinchar esse problema.
00:01:22E na verdade vou dar,
00:01:23sei lá,
00:01:23uma perspectiva diferente do que normalmente faço.
00:01:25A razão pela qual acho que estamos vendo muita gente,
00:01:28até pessoas normais,
00:01:28sabe,
00:01:29não tipo gente de tecnologia,
00:01:30apenas a pessoa comum dizendo,
00:01:31"Ah,
00:01:32ei,
00:01:32isso é slop.
00:01:33"Vou fazer o meu melhor para meio que explicar por que acho que as pessoas sentem isso e o que está acontecendo aqui."
00:01:38Porque o principal problema que tenho com toda essa declaração é que se algo é realmente bom,
00:01:43você nunca teve que pedir para alguém não insultar aquilo.
00:01:46Tipo,
00:01:46ninguém chama produtos que são bons de algum tipo de ofensa,
00:01:50certo?
00:01:50Não nos referimos a eles assim.
00:01:52Não existe tipo um contingente de pessoas tipo,
00:01:54"Ah sim,
00:01:54é aquela coisa ruim." Tipo,
00:01:56não,
00:01:56não é isso que acontece.
00:01:57A razão disso é porque a experiência média da pessoa com aquilo é realmente muito boa.
00:02:02E então quando o Satya está tentando nos dizer,
00:02:04"Ei,
00:02:05precisamos parar de dizer essas coisas." É meio que tipo,
00:02:07por que você não simplesmente fornece um produto que é realmente muito bom.
00:02:11E aí as pessoas não vão dizer isso.
00:02:12Elas vão tipo, "Ah sim, sim, sim, na verdade é bem útil.
00:02:15Sim, isso se chama útil.
00:02:16Isso sim é útil." Meio que explode minha cabeça tentar tipo,
00:02:19"Ei,
00:02:20não faz isso.
00:02:20Não vai fazer isso." Porque do ponto de vista da Microsoft,
00:02:23é óbvio para onde eles estão indo,
00:02:24certo?
00:02:25Eles acabaram de renomear o Microsoft 360 office deles.
00:02:29Lembra disso, o pacote de produtividade deles?
00:02:32Foi renomeado de 360 office para co-pilot.
00:02:34Isso mesmo.
00:02:35Isso significa que co-pilot é o pacote de software office.
00:02:39Co-pilot é a coisa dentro dos documentos de texto fazendo sugestões.
00:02:43Co-pilot é a coisa no GitHub capaz de fazer PRs e interagir com você.
00:02:46Co-pilot é o auto-complete dentro do seu editor VS code.
00:02:50Por que vocês acham que não queremos que as pessoas insultem a IA?
00:02:55Ok, queremos que eles percebam isso como algo bom.
00:02:57Mas nós como programadores,
00:02:58deveríamos ter tipo insights especiais sobre isso,
00:03:00certo?
00:03:01Ok,
00:03:01ei,
00:03:01para toda a minha galera pró-IA aí,
00:03:03nem vou dizer algo negativo aqui.
00:03:05Você não pode simplesmente pedir para a IA fazer algo,
00:03:08certo?
00:03:08Tipo, tem muito planejamento que você tem que fazer.
00:03:11Você tem,
00:03:11sabe,
00:03:12vocês chamam de engenharia de contexto,
00:03:13engenharia de prompt,
00:03:14seja lá que diabos de engenharia esteja rolando por aí,
00:03:17certo?
00:03:17Não é algo tão simples como tipo,
00:03:19"Ei,
00:03:19faz isso pra mim." E então,
00:03:20porque às vezes funciona,
00:03:22às vezes não funciona nem um pouco,
00:03:23certo?
00:03:24Isso faz parte do problema.
00:03:25Nós,
00:03:25as pessoas que experimentaram com isso,
00:03:28entendemos esse problema.
00:03:29A pessoa comum tem essa experiência aqui.
00:03:32Então essa é a coisinha de busca da Microsoft para você meio que pesquisar pelo seu sistema.
00:03:36Olha o que diz.
00:03:37"Experimente meu ponteiro do mouse está muito pequeno." Ok,
00:03:40então você é uma vovó.
00:03:42Você não sabe nada sobre IA.
00:03:43Você vai entrar aqui e vai digitar,
00:03:45"Meu ponteiro do mouse está muito pequeno." O que aconteceu?
00:03:49Bem,
00:03:50você fica ali sentado e continua sentado ali e nada acontece.
00:03:54Nada acontece.
00:03:55Só fica ali parado.
00:03:56E então essa é a experiência que a pessoa comum está tendo.
00:03:58Eles têm essa experiência de IA enfiada meio que por toda parte ao longo da experiência média do Windows.
00:04:04E está tipo funcionando pela metade.
00:04:07Às vezes funciona.
00:04:08Às vezes não funciona.
00:04:09As pessoas tipo,
00:04:10"Sim,
00:04:10isso é desleixado." É isso que desleixado significa.
00:04:12Estamos chamando de slop porque é isso que é.
00:04:16Mas acho que tem tipo um inverso desse argumento,
00:04:18que não é só tipo,
00:04:19"Ei,
00:04:20você não deveria chamar de slop.
00:04:21"Acho que a experiência média das pessoas,"
00:04:24especialmente pessoas que estão mais online,
00:04:26é que elas têm todos esses líderes de pensamento,
00:04:28certo?
00:04:29Eles ficam constantemente te dizendo tipo,
00:04:30"Ei,
00:04:31mano,
00:04:31você entendeu errado." Tipo,
00:04:32"Ei,
00:04:32eu sei que você está aí sentado e gerou algum código.
00:04:34"E você tipo,"
00:04:35"Ah,
00:04:35isso foi muito bom.
00:04:36Ok, isso foi muito ruim.
00:04:37Ok,
00:04:37eu realmente não gosto por essas razões,
00:04:38mas gosto por essas razões,
00:04:39" certo?
00:04:40Tipo você tem uma opinião normal e nuançada porque você é nuançado e normal.
00:04:44Mas aí você vê toda essa parada no Twitter constantemente te dizendo tipo,
00:04:47"Cara,
00:04:48mano,
00:04:48é o fim.
00:04:49Ai meu Deus.
00:04:50Olha,
00:04:50um ano de trabalho feito em uma hora.
00:04:52"Então as expectativas das pessoas estão tão fora da realidade."
00:04:56E acho que não houve exemplo pior em toda a minha vida do que esse tweet aqui.
00:05:03Vou ler para você.
00:05:04"Não estou brincando.
00:05:05Isso não é engraçado." Ok, tweet sério, gente.
00:05:08Não estamos fazendo...
00:05:09Ei, isso não é papo furado, ok?
00:05:10Essa é a parada séria.
00:05:11"Estamos tentando construir orquestradores de agentes distribuídos no Google desde o ano passado.
00:05:15Há várias opções e nem todo mundo está alinhado.
00:05:18Dei ao Claude code uma descrição do problema.
00:05:20Ele gerou o que construímos no ano passado em uma hora.
00:05:23"Então,"
00:05:24obviamente,
00:05:24o que você lê ali?
00:05:26Você lê duas coisas.
00:05:27Uma,
00:05:28essa engenheira principal e o grupo dela devem ser A,
00:05:32incompetentes porque várias pessoas passaram um ano e foi reproduzido no Claude em uma hora.
00:05:38Ok, então tenho que tipo, mano, isso é meio louco.
00:05:42Isso meio que soa como...
00:05:43Que tipo de incompetência está rolando no Google?
00:05:45Eu sei que o Google não é o bastião da engenharia que já foi,
00:05:48mas isso não pode estar certo,
00:05:49certo?
00:05:50Tipo, essa não pode ser a forma de interpretar.
00:05:51Claro,
00:05:52a outra forma de interpretar isso,
00:05:54claro,
00:05:55é que o Claude code é tão incrível assim.
00:05:57Literalmente dei uma descriçãozinha do problema e bada-bing,
00:06:01bada-boom.
00:06:02Seu ano inteiro de esforço resolvido em uma hora e talvez tipo 50 dólares em tokens.
00:06:09Agora esse tweet sozinho,
00:06:10não consigo imaginar a quantidade de pânico e problemas que tive então,
00:06:14na verdade tive várias pessoas entrando em contato por causa dessa coisa única e me perguntando,
00:06:19ainda é seguro de fato aprender?
00:06:21Tipo,
00:06:21provavelmente deveria simplesmente parar de aprender,
00:06:22certo?
00:06:23Deveria apenas codar no feeling.
00:06:24Deveria parar de fazer isso porque obviamente é a melhor coisa de todas.
00:06:26Tipo, esse tweet arruína carreiras e vidas das pessoas.
00:06:30A pior parte desse tweet,
00:06:3228 horas depois,
00:06:33é isso que recebemos.
00:06:34Para atravessar o barulho sobre o tópico,
00:06:36é útil fornecer mais contexto.
00:06:38Sim, ah, ok, ok, ok.
00:06:40Talvez o tweet de antes não tenha sido tão preciso quanto fomos levados a acreditar.
00:06:44Construímos várias versões do sistema no ano passado.
00:06:46Há compensações e não houve um vencedor claro.
00:06:49Quando solicitados com as melhores ideias que sobreviveram,
00:06:51os agentes de codificação conseguem ir muito longe e gerar uma versão de brinquedo boa e decente em uma hora ou mais.
00:06:57Ok, então agora não é uma hora.
00:07:00Pode ser uma hora e meia.
00:07:01Pode ser 45 minutos.
00:07:02É só algum período de tempo.
00:07:03Ok,
00:07:04o prazo muda um pouco,
00:07:05mas mais que isso,
00:07:06uma versão decente de brinquedo.
00:07:08Quando ouço versão de brinquedo,
00:07:09não ouço o que construí no ano passado.
00:07:11Ouço uma sombra do que foi construído,
00:07:14algo que meio que se parece com aquilo,
00:07:16mas não é nada parecido.
00:07:18Além disso,
00:07:18quando fornecido com as melhores ideias que sobreviveram,
00:07:21então deixa eu ver se entendi direito,
00:07:23não apenas a descrição do problema,
00:07:25então você nem está,
00:07:26a coisa toda foi uma mentira,
00:07:27certo?
00:07:28Porque você disse a descrição do problema.
00:07:29Eu apenas dei a descrição.
00:07:30Não,
00:07:31você deu um monte de ideias que você passou um ano pesquisando.
00:07:35Você provavelmente criou um documento técnico realmente fantástico sobre tudo isso e depois alimentou o Cloud Code e aí foi tipo,
00:07:41meu Deus,
00:07:41ele criou algo do que acabamos de dizer que deveria criar e fez tipo uma versão de brinquedo disso.
00:07:46É tipo assim, esse tipo de coisa, me faz odiar IA, sabe?
00:07:50E não é porque IA não é legal ou sei lá,
00:07:52geração de texto,
00:07:52tudo super legal.
00:07:53Quer dizer, sério, olha aquele logo do Vim, ok?
00:07:56Agora aquilo queimou uma floresta inteira,
00:08:00mas é essa supervenda.
00:08:02E então isso significa que toda vez que uso IA,
00:08:05minha expectativa é tão alta,
00:08:08mas minha realidade é tão diferente.
00:08:11Fiz umas nove horas direto de vibe coding recentemente tentando reconstruir tipo isso,
00:08:15apenas uma aplicação inicial do CloudFlare.
00:08:17Um, um worker e um container.
00:08:19Gastei uns 75 a 100 dólares fazendo isso.
00:08:22De nove horas,
00:08:22consegui algo que poderia ser gerado em talvez 15 minutos se você estiver familiarizado.
00:08:27E convenhamos,
00:08:27ei,
00:08:28problemas de prompt,
00:08:29eu estava usando planejamento,
00:08:30estava usando Opus 4.5 Max.
00:08:32Eu estava realmente fazendo muitas perguntas.
00:08:34Descarrilhou bastante.
00:08:36Sabe, talvez eu estivesse fazendo a coisa errada, sei lá.
00:08:39Não importa.
00:08:40Eu fiz algo e tive um resultado ok.
00:08:42Tem algumas partes que eu realmente gostei.
00:08:44Tem algumas partes que eu não gostei.
00:08:45Tem partes do CloudFlare com as quais não estou familiarizado e que me pouparam tipo uma hora de pesquisa.
00:08:50Tem partes com as quais eu estava familiarizado e ele simplesmente fez um trabalho horrível.
00:08:53E então é tipo, ei, foi uma experiência legal.
00:08:55Aprendi muito.
00:08:56Sei mais coisas sobre isso,
00:08:58mas isso não foi,
00:08:59meu Deus,
00:08:59fez tudo que fiz em um ano e eliminou completamente tudo.
00:09:03É mais tipo, ei, tem um monte de arestas afiadas.
00:09:05Tem algumas partes legais.
00:09:06Tem algumas partes não tão legais.
00:09:07Tipo,
00:09:07eu simplesmente não entendo por que as pessoas continuam tentando vender isso como algo fantástico.
00:09:12Literalmente faria tantas pessoas pararem de chamar as coisas de porcaria e simplesmente irem,
00:09:16ah sim,
00:09:17sim,
00:09:17você tem que ter cuidado com isso,
00:09:19né?
00:09:19Tipo sim,
00:09:20nós simplesmente falaríamos sobre isso normalmente se não ficássemos constantemente animados demais.
00:09:24Estou tão cansado de minhas expectativas estarem aqui e minha realidade estar aqui.
00:09:29De qualquer forma, eu só queria falar sobre isso.
00:09:30Eu só, me desculpa.
00:09:31Me sinto frustrado com tudo isso porque sinto que essas últimas duas semanas no Twitter não foram nada além da maior quantidade de bajulação ao Claude code da minha vida inteira.
00:09:42Usei o app TUI.
00:09:43Tipo,
00:09:43encontrei tantos pequenos bugs com ele,
00:09:45o que também é chocante.
00:09:47Tremulação,
00:09:48ultra think nem sequer colorindo o ultra think corretamente com o arco-íris.
00:09:52Tipo é só, cara.
00:09:54Quer dizer,
00:09:54esses nem são,
00:09:55quer dizer,
00:09:56o que está acontecendo aqui?
00:09:57Se a AGI chegou, eu gostaria de um app TUI funcionando, ok?
00:10:01A rolagem, a rolagem nem funciona direito.
00:10:03O control O não funciona direito.
00:10:05Você não consegue dar control O para abrir ou expandir.
00:10:07Quer dizer,
00:10:08tinha tantos problemas,
00:10:09mas de novo,
00:10:10pode ser problema de habilidade da minha parte.
00:10:12O nome é o problema de habilidade, Wijin.
00:10:15Além disso, você percebeu uma coisa?
00:10:17Por que comunistas e pessoas que são super entusiastas de IA sempre falam da mesma forma?
00:10:23Eles sempre ficam tipo, ah, bom, você não fez direito.
00:10:26Veja,
00:10:26o problema foi que você na verdade,
00:10:28veja,
00:10:28você não fez direito.
00:10:29É tipo,
00:10:30ok,
00:10:30estamos todos em falácia do escocês verdadeiro aqui.
00:10:32Eu não tinha percebido isso.
00:10:33Toda experiência ruim é uma falácia do escocês verdadeiro.
00:10:35Toda experiência boa é,
00:10:36sim,
00:10:36é por isso que todos os perdedores estão ficando para trás.
00:10:39Não entendo.
00:10:40Não sei.
00:10:40Desculpa pelo extra, tchau tchau.
00:10:42Ei, você quer aprender a programar?
00:10:43Quer se tornar um engenheiro de backend melhor?
00:10:45Bom, você tem que dar uma olhada no boot.dev.
00:10:47Agora, eu pessoalmente fiz alguns cursos deles.
00:10:49Tenho walkthroughs ao vivo,
00:10:50disponíveis gratuitamente no YouTube do curso inteiro,
00:10:53tudo no boot.dev.
00:10:54Você pode fazer de graça,
00:10:55mas se quiser a experiência gamificada,
00:10:57o acompanhamento do seu aprendizado e tudo isso,
00:10:59aí você tem que pagar a grana,
00:11:01mas ei,
00:11:01vai lá conferir.
00:11:02É incrível.
00:11:03Para quaisquer criadores de conteúdo que você conhece e gosta,
00:11:06fazem cursos lá,
00:11:07boot.dev/prime para 25% de desconto.

Key Takeaway

A frustração com produtos de IA rotulados como 'slop' não será resolvida pedindo às pessoas para mudarem o vocabulário, mas sim fornecendo produtos que realmente funcionem bem e correspondam às expectativas criadas pelo marketing exagerado.

Highlights

O CEO da Microsoft, Satya Nadella, pediu para as pessoas pararem de usar o termo 'slop' ao se referir a produtos com IA, gerando críticas e memes

A experiência média dos usuários com IA integrada em produtos da Microsoft (como busca do Windows) é frequentemente frustrante e inconsistente

Um tweet viral alegou que Claude Code reproduziu um ano de trabalho do Google em uma hora, mas depois foi esclarecido que foi apenas uma 'versão de brinquedo' com ideias pré-fornecidas

A supervenda exagerada de ferramentas de IA cria expectativas irrealistas que não correspondem à realidade da experiência prática

O criador gastou 9 horas e $75-100 usando IA para criar algo que levaria 15 minutos manualmente, destacando as limitações atuais

A Microsoft renomeou o Office 365 para Copilot, integrando IA em todos os seus produtos de produtividade

Críticos de IA frequentemente usam a 'falácia do escocês verdadeiro', culpando usuários por problemas ao invés de reconhecer limitações reais

Timeline

Introdução e a carta do CEO da Microsoft

O vídeo começa com o apresentador comentando sobre sua barba e menciona ter lido uma carta no LinkedIn do CEO da Microsoft, Satya Nadella, sobre reflexões para o ano na indústria de tecnologia. A carta é descrita como inspiração genérica gerada por ChatGPT, usando frases como 'andaime para o potencial humano' e 'bicicletas para a mente'. O ponto crítico surge quando Satya pede para 'superar os argumentos de slop versus sofisticação', sugerindo que as pessoas parem de usar o termo 'slop' para descrever conteúdo gerado por IA. Esta linha específica gerou toneladas de memes e a alcunha 'Micro Slop' para a Microsoft, estabelecendo o tema central do vídeo sobre a desconexão entre o marketing de IA e a realidade.

Por que produtos bons não precisam pedir para não serem insultados

O apresentador argumenta que se um produto é realmente bom, ninguém precisa pedir às pessoas para não insultá-lo, porque a experiência média das pessoas com aquele produto será positiva. Ele critica a abordagem de Satya, sugerindo que ao invés de pedir para as pessoas mudarem a linguagem, a Microsoft deveria simplesmente fornecer produtos que funcionam bem. O contexto por trás do pedido fica evidente quando ele revela que a Microsoft renomeou o Office 365 para Copilot, tornando a IA parte integral de todo o ecossistema de produtividade. Copilot agora é o pacote office, as sugestões em documentos, os PRs no GitHub e o autocomplete no VS Code, explicando por que a empresa está tão preocupada com a percepção pública da IA.

A experiência frustrante do usuário comum com IA

Esta seção demonstra concretamente por que as pessoas chamam produtos de IA de 'slop', usando um exemplo real da busca do Windows. O apresentador mostra que mesmo programadores experientes entendem que usar IA requer planejamento cuidadoso, engenharia de contexto e prompts, e que não é simplesmente pedir algo e funcionar perfeitamente. No entanto, a pessoa comum (exemplificada por uma avó) tenta usar a busca integrada do Windows sugerindo 'meu ponteiro do mouse está muito pequeno' e literalmente nada acontece - o sistema apenas fica travado. Esta é a experiência típica que usuários médios têm com IA integrada em produtos Microsoft: funciona pela metade, às vezes funciona, às vezes não funciona. É exatamente essa inconsistência e falha que define o termo 'slop' na mente das pessoas.

O tweet viral enganoso sobre Claude Code

O apresentador analisa um tweet extremamente problemático de uma engenheira principal do Google alegando que Claude Code reproduziu um ano de trabalho de sua equipe em uma hora, dado apenas uma descrição do problema. Este tweet causou pânico generalizado, com pessoas questionando se ainda vale a pena aprender programação. Porém, 28 horas depois, a mesma pessoa publicou esclarecimentos cruciais: não foi apenas uma descrição do problema, mas sim as 'melhores ideias que sobreviveram' de um ano de pesquisa (provavelmente um documento técnico detalhado), e o resultado foi apenas uma 'versão de brinquedo decente', não o sistema completo. O prazo também mudou de 'uma hora' para 'uma hora ou mais'. Essa retratação massiva expõe como a supervenda de capacidades de IA cria expectativas completamente desconectadas da realidade e prejudica a percepção pública da tecnologia.

Experiência pessoal realista com IA: 9 horas vs 15 minutos

O apresentador compartilha sua própria experiência recente fazendo 'vibe coding' com IA por nove horas diretas, gastando $75-100 para criar uma aplicação CloudFlare básica (um worker e um container) que alguém familiarizado poderia fazer em 15 minutos. Ele usou planejamento adequado, Opus 4.5 Max e fez muitas perguntas, mas o processo descarrilou bastante. O resultado foi misto: algumas partes foram úteis, poupando cerca de uma hora de pesquisa em áreas desconhecidas do CloudFlare, mas em áreas onde ele já tinha conhecimento, a IA fez um trabalho horrível. Ele enfatiza que foi uma experiência de aprendizado válida com 'arestas afiadas', mas absolutamente não foi a experiência transformadora de 'eliminar um ano de trabalho' que o marketing sugere. Esta honestidade contrasta fortemente com a supervenda constante que cria a dissonância entre expectativas e realidade.

Frustração com o hype excessivo e problemas técnicos

O apresentador expressa profunda frustração com as últimas duas semanas de 'bajulação' excessiva ao Claude Code no Twitter, especialmente considerando que ele encontrou numerosos bugs pequenos no app TUI: tremulação, o 'ultra think' nem sequer colorindo corretamente com arco-íris, problemas de rolagem, e o Control+O não funcionando para abrir ou expandir. Ele questiona sarcasticamente: 'Se a AGI chegou, eu gostaria de um app TUI funcionando, ok?' Esta seção ressalta o ponto central de que ferramentas sendo vendidas como revolucionárias ainda têm problemas básicos de usabilidade. Ele também reconhece humildemente que pode ser 'problema de habilidade' da sua parte, introduzindo a discussão sobre como críticas são frequentemente descartadas.

A falácia do escocês verdadeiro e conclusão

Na conclusão, o apresentador faz uma observação perspicaz comparando entusiastas de IA com comunistas no padrão de argumentação: ambos respondem a críticas com 'você não fez direito', caracterizando isso como a falácia do escocês verdadeiro. Toda experiência ruim é descartada como erro do usuário, enquanto toda experiência boa é usada como evidência de que 'perdedores estão ficando para trás'. Ele encerra pedindo desculpas pelo desabafo extra e faz um anúncio patrocinado do boot.dev, oferecendo 25% de desconto com o código 'prime'. O vídeo efetivamente argumenta que normalizar as conversas sobre IA - reconhecendo tanto suas utilidades quanto limitações sem supervenda - faria as pessoas pararem naturalmente de chamar produtos de 'slop'.

Community Posts

View all posts