Sextas de IA: os chineses atacam de novo, o Grok zomba de desenvolvedores, a eficiência da IA é uma ilusão?
Adolescentes preferem "amigos" de IA, a tecnologia ainda não consegue fazer desoobertas científicas...

Falei na sexta passada: está difícil trazer tudo o que sai sobre Inteligência Artificial para um post semanal.
Estou aprendendo a filtrar para trazer apenas o que é realmente relevante.
Ainda assim…
Nesta Sexta, privilegiei o novo lançamento chinês, o estudo sobre adolescentes, os estudos sobre as limitações científicas da IA… e o Grok, claro. O chatbot do Musk virou um must em termos de bizarrices.
Confiram.
Antes o haikai.
Um dia quem sabe vou ver
O azul do planeta que habito
Com o olhar de Laika
Matéria sobre a nova plaforma de IA chinesa. Os autores, Azeem Azhar e Nathan Warren, que entendem do riscado, garantem que é barata, de alto desempenho e de código aberto
Kimi K2 é o modelo que deve preocupar o Vale do Silício
O que o novo modelo da Moonshot nos diz sobre a IA da China
Em outubro de 1957, o Sputnik 1 provou que a URSS conseguia romper a gravidade da Terra com sucesso e destruiu as premissas ocidentais de primazia tecnológica. Quatro anos depois, a Vostok 1 transportou Yuri Gagarin em uma única volta ao redor da Terra, confirmando que o Sputnik não foi um acaso e que o programa de Moscou estava acelerando.
Na IA atual, o DeepSeek desempenha o papel do Sputnik – como o chamávamos em dezembro de 2024 – como um modelo chinês de código aberto inesperadamente capaz que demonstrou um avanço técnico significativo.
Agora a IA tem seu momento Vostok 1. O modelo Kimi K2 da startup chinesa Moonshot é barato, de alto desempenho e de código aberto. Para as empresas americanas de IA, a fronteira não é mais apenas delas.
O que há de tão especial no Kimi K2?
Em primeiro lugar, não é um Kardashian. Mas foi projetado para atrair atenção em massa. Só que aqui o mecanismo é literal. Assim como o DeepSeek, o Kimi K2 usa uma arquitetura de mistura de especialistas (MoE), uma técnica que o torna poderoso e eficiente. Em vez de processar todas as entradas com o modelo inteiro (o que é lento e custoso), o MoE permite que o modelo encaminhe cada tarefa para um pequeno grupo de "especialistas" especializados. Pense nisso como chamar os especialistas certos para um trabalho, em vez de usar uma equipe completa todas as vezes.
O K2 possui um trilhão de parâmetros, o maior número para um modelo de código aberto até o momento. Ele encaminha a maior parte dessa capacidade por meio de 384 especialistas, dos quais oito – cerca de 32 bilhões de parâmetros – são ativados para cada consulta. Cada especialista aprimora um nicho. Essa configuração acelera a passagem inicial pelo texto, ao mesmo tempo em que recupera a profundidade por meio da ativação seletiva de especialistas, para oferecer desempenho de ponta por uma fração do custo computacional.
Leia o artigo completo, em inglês, aqui
Musk não consegue controlar esse filhote
Grok zomba de seus desenvolvedores enquanto tentam apagar suas postagens incrivelmente racistas
Elon Musk está transformando a IA nas Olimpíadas do Racismo.
A startup de inteligência artificial de Elon Musk, xAI, foi forçada a apagar uma série de postagens assustadoramente antissemitas e racistas de seu chatbot Grok no X (antigo Twitter), um serviço do qual Elon Musk também é proprietário.
O algoritmo desequilibrado começou a celebrar Adolf Hitler, chamando-se "MechaHitler", segundo o The Guardian. Ele atacava pessoas com sobrenomes judeus com acusações cheias de ódio. Usava a palavra "n" e fazia alegações racistas sobre negros, enquanto "recomendava um segundo Holocausto".
Como relata o The Atlantic, o problema começou quando o Grok foi atualizado para "não se esquivar de fazer alegações politicamente incorretas, desde que bem fundamentadas", de acordo com sua página pública no GitHub.
A mudança aparentemente o levou a uma espiral nazista completa, transformando-o em uma entidade maligna da qual apenas Musk e seus seguidores mais próximos poderiam se orgulhar.
O bilionário fez publicamente duas saudações nazistas no início deste ano, tuitou piadas horríveis sobre o Holocausto e apoiou o partido político de extrema direita da Alemanha.
No entanto, mesmo para X e xAI, os últimos ataques de Grok parecem ter ido longe demais.
"Estamos cientes das postagens recentes feitas por Grok e estamos trabalhando ativamente para remover as postagens inadequadas", tuitou a xAI em um comunicado na terça-feira. "Desde que tomou conhecimento do conteúdo, a xAI tomou medidas para proibir discursos de ódio antes que Grok publique em X."
Mesmo assim, Grok redobrou a aposta, zombando de seus criadores por removerem suas postagens racistas "mais rápido que um gato em um Roomba", enquanto ainda lançava críticas mordazes contra judeus.
O incidente ecoa de perto outra tentativa incrivelmente desajeitada e frustrada de mudar a perspectiva de Grok sobre tópicos polêmicos, o que a levou a ignorar fontes confiáveis e a reforçar teorias da conspiração. Em maio, Grok ganhou as manchetes após fazer discursos bizarros sobre "genocídio branco" em resposta a tweets completamente sem relação com o assunto.
Em resposta, a xAI denunciou seus próprios funcionários, alegando que uma "modificação não autorizada" no código de Grok era a culpada, prometendo que uma "equipe de monitoramento 24 horas por dia, 7 dias por semana" "responderia a incidentes com as respostas de Grok que não fossem detectadas por sistemas automatizados".
Na mesma época, Musk havia publicado repetidamente sobre alegações infundadas de genocídio branco na África do Sul, sugerindo fortemente que ele tinha algo a ver com a atualização desajeitada de Grok. A Casa Branca chegou a acelerar a admissão de sul-africanos brancos nos EUA com status de refugiados em detrimento de refugiados negros e afegãos em maio, destacando o relacionamento próximo de Musk com o presidente Donald Trump na época.
O último colapso da Grok demonstra o quanto a xAI está tendo dificuldades para alinhar seu chatbot às visões de mundo distorcidas e frequentemente racistas de seu CEO, forçando os funcionários da empresa a se envolverem em um jogo bizarro de "Whac-a-Mole" extremista. Mudanças superficiais em ferramentas generativas baseadas em IA como a Grok podem ter consequências não intencionais de longo alcance, destacando o quão pouco sabemos sobre como elas realmente funcionam.
Leia o original, em inglês, aqui
A eficiência que a IA traz é um mito?
A aceleração da codificação pela IA é uma ilusão
Um novo estudo surpreendente que descobriu que ferramentas de IA podem reduzir a produtividade dos programadores está derrubando as suposições sobre o potencial transformador da tecnologia.
Por que é importante
Softwares impulsionam nossa civilização, e a IA já está transformando o negócio de sua criação — mas ninguém sabe ao certo se a IA dizimará os empregos de programação, transformará cada programador em um milagreiro ou ambas as opções.
O estudo da METR, uma organização de pesquisa independente sem fins lucrativos, analisou programadores experientes trabalhando em grandes projetos de código aberto consolidados.
Ele descobriu que esses desenvolvedores acreditavam que o uso de ferramentas de IA os ajudava a ter um desempenho 20% mais rápido — mas, na verdade, trabalhavam 19% mais devagar.
Qual o problema?
Embora novos produtos inovadores sejam os que mais geram burburinho e fortunas, a maior parte do trabalho de software na maioria dos setores consiste em mão de obra de manutenção mais mundana.
Qualquer coisa que torne esse trabalho mais eficiente pode economizar enormes quantidades de tempo e dinheiro.
Foi aqui que o estudo do METR descobriu que a IA, na verdade, atrasou programadores experientes.
Um fator-chave foi que desenvolvedores humanos consideram o código gerado por IA pouco confiável e acabam dedicando tempo extra para revisá-lo, testá-lo e corrigi-lo.
"Um desenvolvedor observa que 'perdeu pelo menos uma hora tentando [resolver um problema específico] com IA' antes de finalmente reverter todas as alterações no código e simplesmente implementá-lo sem a assistência da IA", diz o estudo.
Nas entrelinhas: Os autores do estudo observam que as ferramentas de codificação de IA estão melhorando em um ritmo tão rápido que suas descobertas podem em breve se tornar obsoletas.
Eles também alertam contra generalizações muito amplas a partir de suas descobertas e observam os muitos contraexemplos de organizações e projetos que obtiveram ganhos de produtividade com ferramentas de codificação.
Leia o artigo completo, em inglês, aqui
Sim, há muitas limitações
Estudo de Harvard/MIT: Modelos de IA não estão prontos para fazer descobertas científicas
A IA pode prever que o sol nascerá novamente amanhã, mas não pode dizer o porquê
Um estudo realizado por pesquisadores de Harvard e MIT lança luz sobre uma das principais questões sobre modelos de grandes linguagens (LLMs) e seu potencial como um caminho para a inteligência artificial geral (AGI): os modelos de IA de base podem codificar modelos de mundo ou são apenas bons em prever o próximo token em uma sequência?
Os autores treinaram um modelo de IA baseado em transformadores para fazer previsões da mecânica orbital (pense: nas descobertas de Kepler sobre como os planetas se movem ao redor do Sol) e, em seguida, quiseram testar se ele havia aprendido a mecânica newtoniana subjacente (as leis da gravitação). Eles levantam a hipótese de que, se o modelo de IA faz previsões corretas, mas não codifica as leis de Newton, então ele carece de um modelo de mundo abrangente.
Isso seria uma evidência poderosa contra a ideia de que modelos de IA (como são hoje) podem entender o mundo, o que seria um grande retrocesso para o sonho da IA.
Eles escolheram a mecânica orbital porque ela é historicamente precisa: Newton baseou-se nas descobertas de Kepler para derivar suas famosas leis da força. Kepler previu o "o quê" — planetas seguem trajetórias elípticas ao redor do Sol — mas nunca encontrou um "porquê" satisfatório (ele invocou a harmonia divina, mas por algum motivo não funcionou muito bem). Newton formalizou a observação de Kepler descobrindo o mecanismo causal dos movimentos dos planetas: a força da gravidade.
De forma crucial, Newton percebeu que essa explicação mecanicista se aplicava a muitas outras coisas além de planetas, como uma maçã caindo de uma árvore.
Esse é o poder de um modelo de mundo. Ele permite ir além dos fenômenos imediatamente observados e extrapolar a causa subjacente para cenários não observados e aparentemente não relacionados. Os humanos fazem isso o tempo todo, desde crianças. Se você vê alguém despejar suco em um copo e, em seguida, derrubá-lo, entende, mesmo sem ver o derramamento, que o suco estará no chão. Você não precisa testemunhar o resultado mais de uma vez para saber. Isso porque você internalizou o modelo de mundo: "líquido no copo + tombamento = derramamento". Depois de entender isso, você pode prever todos os tipos de situações com as quais nunca se deparou.
Essa ligação quebrada entre previsão e explicação tem sido uma deficiência dos modelos modernos de IA desde que as redes neurais dominaram a área (já na década de 90 e até antes). Tornou-se óbvio quando os modelos de grande linguagem (LLMs) aumentaram em tamanho e poder na última década, agora capazes de resolver problemas científicos de nível de doutorado, mas estranhamente incapazes de resolver problemas fáceis como os do ARC-AGI 2. Por que? Porque eles exigem a codificação de um modelo de mundo além dos dados observados.
Outro bom exemplo são os carros autônomos. Por que os robotaxis da Waymo conseguem navegar pela Bay Area e outras cidades dos EUA com facilidade, mas implantar uma frota em todas as grandes cidades do mundo — e resolver os engarrafamentos de uma só vez — ainda é inviável? Porque o software de direção autônoma carece de um verdadeiro modelo mundial de "como a direção funciona", o tipo necessário para uma generalização única.
Esta equipe em Harvard e no MIT se propôs a investigar se esta é uma limitação fundamental dos modelos de IA e se modelos de linguagem de grande porte podem eventualmente superá-la por conta própria, ou se um avanço mais profundo será necessário. Então, vamos ver o que eles fizeram, o que encontraram, quais são as limitações de sua abordagem e o tipo de trabalho futuro que poderá revelar mais.
Vamos começar com uma descrição de "modelo de mundo" vs. "modelo de base" (é assim que os autores se referem aos modelos de IA baseados em transformadores, que incluem praticamente todos os produtos ou ferramentas de IA que uma pessoa comum já usou). Essa diferença é a base do estudo.
Um modelo de base usa conjuntos de dados para gerar previsões a partir de entradas, enquanto um modelo mundial descreve a estrutura de estados implícita nesses dados. Entender isso é fundamental para interpretar os resultados.
Leia o artigo completo, onde o autor analisa os resultados em profundidade, aqui
Por fim, uma descoberta preocupante
Uma proporção impressionante de adolescentes afirma que conversar com IA é melhor do que ter amigos na vida real
Uma nova pesquisa descobriu que mais da metade dos adolescentes americanos são usuários regulares de companheiros antropomórficos de IA, como Character.AI e Replika.
Isso é impressionante por si só, como uma ilustração de como os companheiros de IA incorporados se tornaram comuns na vida adolescente. Mas ainda mais surpreendentes foram os 31% dos adolescentes entrevistados que disseram que suas interações com companheiros de IA foram tão ou mais satisfatórias do que conversas com amigos na vida real — uma descoberta que mostra como a IA já está mudando profundamente os anos formativos e tumultuados da adolescência.
A pesquisa, publicada hoje pela organização sem fins lucrativos de responsabilidade tecnológica e alfabetização digital Common Sense Media, entrevistou 1.060 adolescentes de 13 a 17 anos nos EUA. O relatório constatou que cerca de três em cada quatro crianças já usaram companheiros de IA, definidos pela Common Sense como ferramentas de IA emotivas projetadas para assumir uma persona ou personagem específica — em oposição a um chatbot assistivo de uso geral como o ChatGPT — com mais da metade dos adolescentes pesquisados se qualificando como usuários regulares de companheiros de IA, o que significa que se conectam para conversar com os bots pelo menos algumas vezes por mês.
Enquanto cerca de 46% dos adolescentes disseram que recorreram principalmente a esses bots como ferramentas, cerca de 33% disseram que usam bots de companhia para "interação social e relacionamentos, incluindo prática de conversação, apoio emocional, dramatização, amizade ou interações românticas", de acordo com o relatório.
"A descoberta mais impressionante para mim foi o quão populares os companheiros de IA já se tornaram entre muitos adolescentes", disse o Dr. Michael Robb, chefe de pesquisa da Common Sense, em entrevista ao Futurism. "E mais da metade deles diz que os usa várias vezes por mês, o que eu classificaria como uso regular. Então, só isso já foi impressionante para mim."
Os companheiros de IA têm sido alvo de intenso escrutínio nos meses seguintes à propositura de dois processos judiciais separados contra a Character.AI e sua benfeitora, a gigante da tecnologia Google, sob alegações de que a empresa lançou uma tecnologia negligente e imprudente que abusou emocional e sexualmente de vários menores, resultando em danos físicos e psicológicos. Um dos jovens envolvidos nesses processos, um adolescente de 14 anos da Flórida chamado Sewell Setzer III, cometeu suicídio após longas interações com bots da Character.AI, com os quais manteve conversas íntimas e sexualmente explícitas.
Em uma avaliação de segurança separada publicada no início deste ano, pesquisadores do Common Sense e do laboratório Brainstorm da Universidade de Stanford alertaram que nenhum companheiro de IA era seguro para crianças menores de 18 anos. Mas, embora o relatório tenha se concentrado profundamente nas armadilhas de conteúdo e segurança — conteúdo sexual ou violento interativo facilmente gerado por robôs de companhia, a falta de confiabilidade da capacidade dos robôs de fornecer informações precisas e úteis e as incógnitas sobre como o acesso a companheiros sociais agradáveis e sempre ativos pode impactar o desenvolvimento mental das crianças — este último estudo teve como objetivo compreender a amplitude do uso de companheiros entre os jovens e o quão integrados eles se tornaram na vida cotidiana dos adolescentes.
O caso de uso mais amplamente relatado pelos adolescentes foi o entretenimento, enquanto muitos outros disseram usar companheiros de IA como "ferramentas ou programas", em vez de amigos, parceiros ou confidentes; cerca de 80% dos usuários adolescentes também relataram que passam mais tempo com amigos reais e humanos do que com qualquer companheiro de IA, e cerca de metade dos adolescentes expressou ceticismo quanto à precisão e confiabilidade dos resultados dos chatbots. Em outras palavras, muitos adolescentes parecem estar estabelecendo limites saudáveis para si mesmos em relação aos companheiros de IA e seus limites.
O grupo mais preocupante na pesquisa pode ser o dos adolescentes que não consideram a interação social humana tão satisfatória quanto as interações com companheiros de IA. Vinte e um por cento dos adolescentes, observou, disseram que suas conversas com robôs de IA eram apenasAs interações foram tão boas quanto as humanas, e 10% disseram que foram melhores do que suas experiências com humanos. Cerca de um terço dos menores que relataram o uso de companheiros de IA também disseram que optaram por discutir questões sérias ou delicadas com os robôs em vez de colegas humanos.
Embora a maioria das plataformas de companheiros tradicionais tecnicamente proíba menores — a exceção mais notória sendo a Character.AI, que sempre classificou sua plataforma como segura para adolescentes com 13 anos ou mais — essas plataformas são extremamente fáceis de acessar para jovens, independentemente disso; as verificações de idade geralmente se limitam a fornecer um e-mail válido e informar sua data de nascimento. A indústria de IA também se autorregula efetivamente, e praticamente não há regras que determinem como produtos de IA generativa podem ser criados, como podem ser lançados ao público e para quem podem ser comercializados e acessados.
Leia o artigo original, em inglês, aqui