00:00:00- Tenho duas coisas muito importantes a dizer.
00:00:01Primeira, olha essa barba.
00:00:03Ok,
00:00:03de alguma forma estou acidentalmente deixando crescer uma barba.
00:00:06Segundo, eu li algo no LinkedIn, ok?
00:00:09Desculpa, mas aqui estamos.
00:00:11Olha isso.
00:00:12Uma reflexão sobre o ano à frente da nossa indústria.
00:00:15Isso é, claro, do CEO da Microsoft.
00:00:17E se você ler a carta,
00:00:19claro,
00:00:19ela continua e basicamente é só uma inspiração do chat GPT,
00:00:23tipo uma experiência onde você só quer se sentir muito bem,
00:00:26sabe?
00:00:27Um novo conceito que evolui bicicletas para a mente.
00:00:29De modo que sempre pensemos na IA como um andaime para o potencial humano em vez de um substituto.
00:00:35Uau, cara, ei, aí Satya, isso é tão inspirador.
00:00:38Tipo, cara, quantos prompts do chat GPT?
00:00:40Qual é o teu prompt, mano?
00:00:41Mano, qual é o teu prompt?
00:00:42Isso sim é inspiração.
00:00:44Mas algo que meio que chamou a atenção de todo mundo nisso tudo que gerou toneladas de memes,
00:00:50incluindo este,
00:00:50meu favorito aqui,
00:00:52Micro Slop,
00:00:52é esta linha aqui.
00:00:54Precisamos superar os argumentos de slop versus sofisticação e desenvolver um novo equilíbrio nos termos da teoria da mente que considere os seres humanos equipados com essas novas ferramentas amplificadoras cognitivas conforme nos relacionamos uns com os outros.
00:01:05Primeiro,
00:01:06quer dizer,
00:01:06IA não está nos ajudando a nos relacionar com ninguém,
00:01:08mas podemos deixar isso de lado.
00:01:09Ok, vamos deixar essa parte de lado.
00:01:11Mas essa ideia de que precisamos apenas superar os argumentos de slop.
00:01:14Não precisamos mais usar o termo slop.
00:01:15Ei, slop, slop simplesmente não é necessário.
00:01:17Não precisamos dizer isso, certo?
00:01:19Certo, manos?
00:01:20Tudo bem,
00:01:20então essa é a parte onde vou tentar destrinchar esse problema.
00:01:22E na verdade vou dar,
00:01:23sei lá,
00:01:23uma perspectiva diferente do que normalmente faço.
00:01:25A razão pela qual acho que estamos vendo muita gente,
00:01:28até pessoas normais,
00:01:28sabe,
00:01:29não tipo gente de tecnologia,
00:01:30apenas a pessoa comum dizendo,
00:01:31"Ah,
00:01:32ei,
00:01:32isso é slop.
00:01:33"Vou fazer o meu melhor para meio que explicar por que acho que as pessoas sentem isso e o que está acontecendo aqui."
00:01:38Porque o principal problema que tenho com toda essa declaração é que se algo é realmente bom,
00:01:43você nunca teve que pedir para alguém não insultar aquilo.
00:01:46Tipo,
00:01:46ninguém chama produtos que são bons de algum tipo de ofensa,
00:01:50certo?
00:01:50Não nos referimos a eles assim.
00:01:52Não existe tipo um contingente de pessoas tipo,
00:01:54"Ah sim,
00:01:54é aquela coisa ruim." Tipo,
00:01:56não,
00:01:56não é isso que acontece.
00:01:57A razão disso é porque a experiência média da pessoa com aquilo é realmente muito boa.
00:02:02E então quando o Satya está tentando nos dizer,
00:02:04"Ei,
00:02:05precisamos parar de dizer essas coisas." É meio que tipo,
00:02:07por que você não simplesmente fornece um produto que é realmente muito bom.
00:02:11E aí as pessoas não vão dizer isso.
00:02:12Elas vão tipo, "Ah sim, sim, sim, na verdade é bem útil.
00:02:15Sim, isso se chama útil.
00:02:16Isso sim é útil." Meio que explode minha cabeça tentar tipo,
00:02:19"Ei,
00:02:20não faz isso.
00:02:20Não vai fazer isso." Porque do ponto de vista da Microsoft,
00:02:23é óbvio para onde eles estão indo,
00:02:24certo?
00:02:25Eles acabaram de renomear o Microsoft 360 office deles.
00:02:29Lembra disso, o pacote de produtividade deles?
00:02:32Foi renomeado de 360 office para co-pilot.
00:02:34Isso mesmo.
00:02:35Isso significa que co-pilot é o pacote de software office.
00:02:39Co-pilot é a coisa dentro dos documentos de texto fazendo sugestões.
00:02:43Co-pilot é a coisa no GitHub capaz de fazer PRs e interagir com você.
00:02:46Co-pilot é o auto-complete dentro do seu editor VS code.
00:02:50Por que vocês acham que não queremos que as pessoas insultem a IA?
00:02:55Ok, queremos que eles percebam isso como algo bom.
00:02:57Mas nós como programadores,
00:02:58deveríamos ter tipo insights especiais sobre isso,
00:03:00certo?
00:03:01Ok,
00:03:01ei,
00:03:01para toda a minha galera pró-IA aí,
00:03:03nem vou dizer algo negativo aqui.
00:03:05Você não pode simplesmente pedir para a IA fazer algo,
00:03:08certo?
00:03:08Tipo, tem muito planejamento que você tem que fazer.
00:03:11Você tem,
00:03:11sabe,
00:03:12vocês chamam de engenharia de contexto,
00:03:13engenharia de prompt,
00:03:14seja lá que diabos de engenharia esteja rolando por aí,
00:03:17certo?
00:03:17Não é algo tão simples como tipo,
00:03:19"Ei,
00:03:19faz isso pra mim." E então,
00:03:20porque às vezes funciona,
00:03:22às vezes não funciona nem um pouco,
00:03:23certo?
00:03:24Isso faz parte do problema.
00:03:25Nós,
00:03:25as pessoas que experimentaram com isso,
00:03:28entendemos esse problema.
00:03:29A pessoa comum tem essa experiência aqui.
00:03:32Então essa é a coisinha de busca da Microsoft para você meio que pesquisar pelo seu sistema.
00:03:36Olha o que diz.
00:03:37"Experimente meu ponteiro do mouse está muito pequeno." Ok,
00:03:40então você é uma vovó.
00:03:42Você não sabe nada sobre IA.
00:03:43Você vai entrar aqui e vai digitar,
00:03:45"Meu ponteiro do mouse está muito pequeno." O que aconteceu?
00:03:49Bem,
00:03:50você fica ali sentado e continua sentado ali e nada acontece.
00:03:54Nada acontece.
00:03:55Só fica ali parado.
00:03:56E então essa é a experiência que a pessoa comum está tendo.
00:03:58Eles têm essa experiência de IA enfiada meio que por toda parte ao longo da experiência média do Windows.
00:04:04E está tipo funcionando pela metade.
00:04:07Às vezes funciona.
00:04:08Às vezes não funciona.
00:04:09As pessoas tipo,
00:04:10"Sim,
00:04:10isso é desleixado." É isso que desleixado significa.
00:04:12Estamos chamando de slop porque é isso que é.
00:04:16Mas acho que tem tipo um inverso desse argumento,
00:04:18que não é só tipo,
00:04:19"Ei,
00:04:20você não deveria chamar de slop.
00:04:21"Acho que a experiência média das pessoas,"
00:04:24especialmente pessoas que estão mais online,
00:04:26é que elas têm todos esses líderes de pensamento,
00:04:28certo?
00:04:29Eles ficam constantemente te dizendo tipo,
00:04:30"Ei,
00:04:31mano,
00:04:31você entendeu errado." Tipo,
00:04:32"Ei,
00:04:32eu sei que você está aí sentado e gerou algum código.
00:04:34"E você tipo,"
00:04:35"Ah,
00:04:35isso foi muito bom.
00:04:36Ok, isso foi muito ruim.
00:04:37Ok,
00:04:37eu realmente não gosto por essas razões,
00:04:38mas gosto por essas razões,
00:04:39" certo?
00:04:40Tipo você tem uma opinião normal e nuançada porque você é nuançado e normal.
00:04:44Mas aí você vê toda essa parada no Twitter constantemente te dizendo tipo,
00:04:47"Cara,
00:04:48mano,
00:04:48é o fim.
00:04:49Ai meu Deus.
00:04:50Olha,
00:04:50um ano de trabalho feito em uma hora.
00:04:52"Então as expectativas das pessoas estão tão fora da realidade."
00:04:56E acho que não houve exemplo pior em toda a minha vida do que esse tweet aqui.
00:05:03Vou ler para você.
00:05:04"Não estou brincando.
00:05:05Isso não é engraçado." Ok, tweet sério, gente.
00:05:08Não estamos fazendo...
00:05:09Ei, isso não é papo furado, ok?
00:05:10Essa é a parada séria.
00:05:11"Estamos tentando construir orquestradores de agentes distribuídos no Google desde o ano passado.
00:05:15Há várias opções e nem todo mundo está alinhado.
00:05:18Dei ao Claude code uma descrição do problema.
00:05:20Ele gerou o que construímos no ano passado em uma hora.
00:05:23"Então,"
00:05:24obviamente,
00:05:24o que você lê ali?
00:05:26Você lê duas coisas.
00:05:27Uma,
00:05:28essa engenheira principal e o grupo dela devem ser A,
00:05:32incompetentes porque várias pessoas passaram um ano e foi reproduzido no Claude em uma hora.
00:05:38Ok, então tenho que tipo, mano, isso é meio louco.
00:05:42Isso meio que soa como...
00:05:43Que tipo de incompetência está rolando no Google?
00:05:45Eu sei que o Google não é o bastião da engenharia que já foi,
00:05:48mas isso não pode estar certo,
00:05:49certo?
00:05:50Tipo, essa não pode ser a forma de interpretar.
00:05:51Claro,
00:05:52a outra forma de interpretar isso,
00:05:54claro,
00:05:55é que o Claude code é tão incrível assim.
00:05:57Literalmente dei uma descriçãozinha do problema e bada-bing,
00:06:01bada-boom.
00:06:02Seu ano inteiro de esforço resolvido em uma hora e talvez tipo 50 dólares em tokens.
00:06:09Agora esse tweet sozinho,
00:06:10não consigo imaginar a quantidade de pânico e problemas que tive então,
00:06:14na verdade tive várias pessoas entrando em contato por causa dessa coisa única e me perguntando,
00:06:19ainda é seguro de fato aprender?
00:06:21Tipo,
00:06:21provavelmente deveria simplesmente parar de aprender,
00:06:22certo?
00:06:23Deveria apenas codar no feeling.
00:06:24Deveria parar de fazer isso porque obviamente é a melhor coisa de todas.
00:06:26Tipo, esse tweet arruína carreiras e vidas das pessoas.
00:06:30A pior parte desse tweet,
00:06:3228 horas depois,
00:06:33é isso que recebemos.
00:06:34Para atravessar o barulho sobre o tópico,
00:06:36é útil fornecer mais contexto.
00:06:38Sim, ah, ok, ok, ok.
00:06:40Talvez o tweet de antes não tenha sido tão preciso quanto fomos levados a acreditar.
00:06:44Construímos várias versões do sistema no ano passado.
00:06:46Há compensações e não houve um vencedor claro.
00:06:49Quando solicitados com as melhores ideias que sobreviveram,
00:06:51os agentes de codificação conseguem ir muito longe e gerar uma versão de brinquedo boa e decente em uma hora ou mais.
00:06:57Ok, então agora não é uma hora.
00:07:00Pode ser uma hora e meia.
00:07:01Pode ser 45 minutos.
00:07:02É só algum período de tempo.
00:07:03Ok,
00:07:04o prazo muda um pouco,
00:07:05mas mais que isso,
00:07:06uma versão decente de brinquedo.
00:07:08Quando ouço versão de brinquedo,
00:07:09não ouço o que construí no ano passado.
00:07:11Ouço uma sombra do que foi construído,
00:07:14algo que meio que se parece com aquilo,
00:07:16mas não é nada parecido.
00:07:18Além disso,
00:07:18quando fornecido com as melhores ideias que sobreviveram,
00:07:21então deixa eu ver se entendi direito,
00:07:23não apenas a descrição do problema,
00:07:25então você nem está,
00:07:26a coisa toda foi uma mentira,
00:07:27certo?
00:07:28Porque você disse a descrição do problema.
00:07:29Eu apenas dei a descrição.
00:07:30Não,
00:07:31você deu um monte de ideias que você passou um ano pesquisando.
00:07:35Você provavelmente criou um documento técnico realmente fantástico sobre tudo isso e depois alimentou o Cloud Code e aí foi tipo,
00:07:41meu Deus,
00:07:41ele criou algo do que acabamos de dizer que deveria criar e fez tipo uma versão de brinquedo disso.
00:07:46É tipo assim, esse tipo de coisa, me faz odiar IA, sabe?
00:07:50E não é porque IA não é legal ou sei lá,
00:07:52geração de texto,
00:07:52tudo super legal.
00:07:53Quer dizer, sério, olha aquele logo do Vim, ok?
00:07:56Agora aquilo queimou uma floresta inteira,
00:08:00mas é essa supervenda.
00:08:02E então isso significa que toda vez que uso IA,
00:08:05minha expectativa é tão alta,
00:08:08mas minha realidade é tão diferente.
00:08:11Fiz umas nove horas direto de vibe coding recentemente tentando reconstruir tipo isso,
00:08:15apenas uma aplicação inicial do CloudFlare.
00:08:17Um, um worker e um container.
00:08:19Gastei uns 75 a 100 dólares fazendo isso.
00:08:22De nove horas,
00:08:22consegui algo que poderia ser gerado em talvez 15 minutos se você estiver familiarizado.
00:08:27E convenhamos,
00:08:27ei,
00:08:28problemas de prompt,
00:08:29eu estava usando planejamento,
00:08:30estava usando Opus 4.5 Max.
00:08:32Eu estava realmente fazendo muitas perguntas.
00:08:34Descarrilhou bastante.
00:08:36Sabe, talvez eu estivesse fazendo a coisa errada, sei lá.
00:08:39Não importa.
00:08:40Eu fiz algo e tive um resultado ok.
00:08:42Tem algumas partes que eu realmente gostei.
00:08:44Tem algumas partes que eu não gostei.
00:08:45Tem partes do CloudFlare com as quais não estou familiarizado e que me pouparam tipo uma hora de pesquisa.
00:08:50Tem partes com as quais eu estava familiarizado e ele simplesmente fez um trabalho horrível.
00:08:53E então é tipo, ei, foi uma experiência legal.
00:08:55Aprendi muito.
00:08:56Sei mais coisas sobre isso,
00:08:58mas isso não foi,
00:08:59meu Deus,
00:08:59fez tudo que fiz em um ano e eliminou completamente tudo.
00:09:03É mais tipo, ei, tem um monte de arestas afiadas.
00:09:05Tem algumas partes legais.
00:09:06Tem algumas partes não tão legais.
00:09:07Tipo,
00:09:07eu simplesmente não entendo por que as pessoas continuam tentando vender isso como algo fantástico.
00:09:12Literalmente faria tantas pessoas pararem de chamar as coisas de porcaria e simplesmente irem,
00:09:16ah sim,
00:09:17sim,
00:09:17você tem que ter cuidado com isso,
00:09:19né?
00:09:19Tipo sim,
00:09:20nós simplesmente falaríamos sobre isso normalmente se não ficássemos constantemente animados demais.
00:09:24Estou tão cansado de minhas expectativas estarem aqui e minha realidade estar aqui.
00:09:29De qualquer forma, eu só queria falar sobre isso.
00:09:30Eu só, me desculpa.
00:09:31Me sinto frustrado com tudo isso porque sinto que essas últimas duas semanas no Twitter não foram nada além da maior quantidade de bajulação ao Claude code da minha vida inteira.
00:09:42Usei o app TUI.
00:09:43Tipo,
00:09:43encontrei tantos pequenos bugs com ele,
00:09:45o que também é chocante.
00:09:47Tremulação,
00:09:48ultra think nem sequer colorindo o ultra think corretamente com o arco-íris.
00:09:52Tipo é só, cara.
00:09:54Quer dizer,
00:09:54esses nem são,
00:09:55quer dizer,
00:09:56o que está acontecendo aqui?
00:09:57Se a AGI chegou, eu gostaria de um app TUI funcionando, ok?
00:10:01A rolagem, a rolagem nem funciona direito.
00:10:03O control O não funciona direito.
00:10:05Você não consegue dar control O para abrir ou expandir.
00:10:07Quer dizer,
00:10:08tinha tantos problemas,
00:10:09mas de novo,
00:10:10pode ser problema de habilidade da minha parte.
00:10:12O nome é o problema de habilidade, Wijin.
00:10:15Além disso, você percebeu uma coisa?
00:10:17Por que comunistas e pessoas que são super entusiastas de IA sempre falam da mesma forma?
00:10:23Eles sempre ficam tipo, ah, bom, você não fez direito.
00:10:26Veja,
00:10:26o problema foi que você na verdade,
00:10:28veja,
00:10:28você não fez direito.
00:10:29É tipo,
00:10:30ok,
00:10:30estamos todos em falácia do escocês verdadeiro aqui.
00:10:32Eu não tinha percebido isso.
00:10:33Toda experiência ruim é uma falácia do escocês verdadeiro.
00:10:35Toda experiência boa é,
00:10:36sim,
00:10:36é por isso que todos os perdedores estão ficando para trás.
00:10:39Não entendo.
00:10:40Não sei.
00:10:40Desculpa pelo extra, tchau tchau.
00:10:42Ei, você quer aprender a programar?
00:10:43Quer se tornar um engenheiro de backend melhor?
00:10:45Bom, você tem que dar uma olhada no boot.dev.
00:10:47Agora, eu pessoalmente fiz alguns cursos deles.
00:10:49Tenho walkthroughs ao vivo,
00:10:50disponíveis gratuitamente no YouTube do curso inteiro,
00:10:53tudo no boot.dev.
00:10:54Você pode fazer de graça,
00:10:55mas se quiser a experiência gamificada,
00:10:57o acompanhamento do seu aprendizado e tudo isso,
00:10:59aí você tem que pagar a grana,
00:11:01mas ei,
00:11:01vai lá conferir.
00:11:02É incrível.
00:11:03Para quaisquer criadores de conteúdo que você conhece e gosta,
00:11:06fazem cursos lá,
00:11:07boot.dev/prime para 25% de desconto.