Sextas de IA: O Atari é mais inteligente do que o ChatGPT? Uma realidade assustadora. E mais
Vem aí a Superinteligência?
A notícia é engraçada: jogando xadrez, um chatbot da OpenAI sofreu uma derrota humilhante de um Atari 2600. Aliás, foi derrotado todas as vezes.
É verdade que, como dizia um amigo meu, e bom enxadrista, saber jogar bem xadrez demonstra inteligência… para jogar xadrez!
Mas, tecnicamente, ganhar no xadrez pode sim refletir certa inteligência — mas essa relação é modesta e específica, e não um reflexo geral do quociente intelectual ou inteligência global.
Além disso, o jogo para o Atari 2600 foi lançado em 1979 e é o mesmo até hoje.
O pior mesmo é que não se sabe por que isso aconteceu.
E não se sabe porque os “gênios” das empresas que criam os LLMs, grandes modelos de linguagem, não sabem exatamente como eles funcionam.
Mesmo assim, continuam com seus sonhos distópicos. Viciar universitários em IA, por exemplo.
E quando aparece algum contestador… bingo! É um concorrente, tipo Apple, que não está tendo sucesso em desenvolver sua própria IA.
Confira.
Antes, o haikai.
Era-me boia a ignorância
Depois travestiu-se de dúvida
Hoje é farol
O xeque-mate
O ChatGPT foi "totalmente detonado" no xadrez pelo Atari 2600
Apesar de todos os seus avanços, o ChatGPT aparentemente ainda é menos inteligente — pelo menos em certas tarefas — do que um console Atari de quase 50 anos atrás.
Em uma publicação no LinkedIn, o engenheiro de software da Citrix, Robert Caruso, explicou como o chatbot da OpenAI "foi completamente destruído" por um Atari 2600 rodando Atari Chess, um jogo para o sistema lançado em 1979
Lançado em 1977, o Atari 2600 — também comercializado na época como Atari Video Computer System — popularizou os jogos em casa depois que a Atari lançou seu console "Pong" dois anos antes. Ainda assim, esse sistema foi lançado cerca de 21 anos depois que o supercomputador MANIAC I se tornou a primeira máquina da história a derrotar um humano em um jogo de xadrez modificado, então seria de se esperar que, depois de mais algumas décadas, nossa tecnologia de ponta destruiria o Atari primordial.
Aparentemente, não foi o caso.
"O ChatGPT foi completamente destruído no nível iniciante", escreveu Caruso. "Isso aconteceu depois de uma conversa que tivemos sobre a história da IA no Xadrez, que o levou a se voluntariar para jogar Xadrez Atari. Ele queria descobrir o quão rápido conseguiria vencer um jogo que só pensa 1 ou 2 lances à frente."
Embora o chatbot tivesse recebido um "tabuleiro de base" para aprender o jogo e identificar as peças, ele continuava confundindo torres e bispos, interpretando movimentos incorretamente e "perdendo a noção repetidamente" de onde suas peças estavam. Para piorar a situação, como explicou Caruso, o ChatGPT também culpou os ícones da Atari por serem "abstratos demais para serem reconhecidos" — mas quando ele mudou o jogo para a notação padrão, o desempenho não melhorou.
Por uma hora e meia, o ChatGPT "cometeu erros suficientes para ser motivo de chacota em um clube de xadrez da 3ª série", enquanto insistia repetidamente que venceria "se simplesmente recomeçássemos", observou Caruso. (E sim, é meio assustador que o chatbot aparentemente se referisse a si mesmo e ao humano com quem estava interagindo como "nós".)
"Enquanto isso, o humilde motor de 8 bits da Atari simplesmente fez seu trabalho", observou o engenheiro. "Sem modelo de linguagem. Sem flash. Apenas avaliação de tabuleiro por força bruta e teimosia de 1977."
Infelizmente, não temos nenhum vídeo da configuração de jogo do Caruso para assistir ao ChatGPT ser destruído por uma IA de quase 50 anos — mas pelo menos podemos rir da ideia da falta de habilidade do chatbot em jogos.
Leia o artigo original, em inglês, aqui
Superproblemas à vista?
A Meta está criando um novo laboratório de IA para buscar "superinteligência"
A Meta está se preparando para inaugurar um novo laboratório de pesquisa em inteligência artificial dedicado à busca por "superinteligência", um hipotético sistema de IA que excede os poderes do cérebro humano, enquanto a gigante da tecnologia luta para se manter competitiva na corrida tecnológica, de acordo com quatro pessoas com conhecimento dos planos da empresa.
A Meta contratou Alexandr Wang, 28, fundador e CEO da startup de IA Scale AI, para se juntar ao novo laboratório, disseram as pessoas, e está em negociações para investir bilhões de dólares em sua empresa como parte de um acordo que também traria outros funcionários da Scale AI para a empresa. A Meta ofereceu pacotes de remuneração de sete a nove dígitos a dezenas de pesquisadores de empresas líderes em IA, como OpenAI e Google, com alguns concordando em se juntar a ela, de acordo com as pessoas.
Leia a matéria completa, em inglês, aqui
Quem topa ir para o divã?
Quando a IA dá conselhos terapêuticos ruins, os riscos são reais
Um novo estudo de Stanford alerta sobre os "terapeutas" de IA. As descobertas mostram que essas ferramentas podem ignorar crises e reforçar crenças prejudiciais.
Chatbots como Pi, Noni e "Therapist" da Character.ai falharam em verificações de segurança essenciais em simulações.
Alguns não identificaram sinais de ideação suicida ou validaram delírios, o que representa uma lacuna perigosa.
Pesquisadores de Stanford encontraram estigma nas respostas de chatbots a condições como esquizofrenia e dependência química.
A tendência da IA de concordar com os usuários pode reforçar pensamentos prejudiciais em vez de contestá-los.
Apesar das isenções de responsabilidade, bots rotulados como "terapeutas" costumam confundir os usuários, especialmente adolescentes.
Um processo alega que um bot da Character.ai incentivou a automutilação, gerando consequências no mundo real.
A privacidade também é uma preocupação: a IA terapêutica exigiria dados sensíveis, difíceis de reduzir o risco.
Chatbots de IA podem oferecer conforto, mas terapia é mais do que empatia. Também há limites, nuances e julgamento; coisas que faltam na IA. Não deveríamos exigir que modelos de linguagem carreguem o peso dos cuidados com a saúde mental, especialmente quando os riscos são tão reais.
Uma nova teoria da evolução?
Conheça a IA que reescreve e aprimora seu próprio cérebro
A Máquina de Gödel de Darwin (DGM) é uma IA autoaprimorável que edita seu próprio código. Não é mais apenas teoria; ela funciona e supera agentes construídos manualmente.
Inspirada na Máquina de Gödel de Jürgen Schmidhuber, a DGM torna possível a automodificação no mundo real.
Ela reescreve seu próprio código Python para aumentar o desempenho em tarefas de codificação.
Cada automodificação é validada em benchmarks como SWE-bench e Polyglot.
A DGM melhorou de 20% para 50% no SWE-bench e de 14,2% para 30,7% no Polyglot.
Suas melhorias de design se generalizam entre modelos e linguagens, não apenas ajustes de overfit.
Usando algoritmos abertos, ela explora muitos caminhos evolutivos em paralelo.
Até mesmo agentes "ancestrais" com falhas contribuem para avanços por meio dessa estratégia de ramificação.
O DGM marca uma mudança crucial no desenvolvimento de IA. Não se trata mais de criar agentes mais inteligentes manualmente. Trata-se de construir agentes que possam se autoprojetar — e talvez, em breve, até mesmo aprimorar seus próprios processos de treinamento. Se conseguirmos manter isso seguro, este pode ser um ponto de inflexão para o futuro da IA a longo prazo.
Leia o artigo original, em inglês, aqui
Mó barato!
A OpenAI quer viciar universitários em IA
Chatbots de IA como o ChatGPT da OpenAI têm demonstrado repetidamente fornecer informações falsas, usar fontes frutos de alucinação com fatos completamente inventados e enganar as pessoas com suas respostas confiantemente erradas a perguntas. Por esse motivo, ferramentas de IA são vistas com ceticismo por muitos educadores. No entanto, está claro que a OpenAI e seus concorrentes estão mirando nas faculdades e empurrando seus serviços para os alunos — que se danem as preocupações.
De acordo com o New York Times, a OpenAI está em meio a um grande esforço para tornar o ChatGPT uma referência nos campi universitários, substituindo muitos aspectos da experiência acadêmica por alternativas de IA. De acordo com a reportagem, a empresa quer que os universitários tenham uma "conta de IA personalizada" assim que entrarem no campus, da mesma forma que recebem um endereço de e-mail da escola. A empresa prevê que o ChatGPT possa atuar em tudo, desde um tutor pessoal a um assistente de professor e um assistente de carreira que ajuda os alunos a encontrar emprego após a formatura.
Algumas escolas já estão aderindo à ideia, apesar de o mundo educacional ter inicialmente recebido a IA com desconfiança e proibições definitivas. Segundo o Times, instituições como a Universidade de Maryland, a Universidade Duke e a Universidade Estadual da Califórnia aderiram ao serviço premium da OpenAI, o ChatGPT Edu, e começaram a integrar o chatbot em diferentes partes da experiência educacional.
A OpenAI não está sozinha em seu foco no ensino superior. A xAI, de Elon Musk, ofereceu acesso gratuito ao seu chatbot Grok aos alunos durante a temporada de provas, e o Google está atualmente oferecendo seu pacote Gemini AI gratuitamente aos alunos até o final do ano letivo de 2025-26. Mas isso está fora da infraestrutura real do ensino superior, que é onde a OpenAI está tentando operar.
As universidades que optam por adotar a IA, após inicialmente se posicionarem duramente contra ela por medo de trapaça, são lamentáveis. Já há uma quantidade considerável de evidências se acumulando de que a IA não é tão benéfica se o seu objetivo é aprender e reter informações precisas. Um estudo publicado no início deste ano descobriu que a dependência da IA pode corroer as habilidades de pensamento crítico. Outros descobriram, de forma semelhante, que as pessoas usam as ferramentas para o que se chama "cognitive offloading", ou seja, confiando na IA para fazer o trabalho cognitivo mais difícil. Se a ideia da universidade é ajudar os alunos a aprender a pensar, a IA a enfraquece.
E isso antes de entrarmos na desinformação por trás de tudo isso. Na tentativa de ver como a IA poderia servir em um ambiente educacional focado, pesquisadores tentaram treinar diferentes modelos em um livro de casos de direito de patentes para ver como eles se saíam quando questionados sobre o material. Todos eles produziram informações falsas, alucinaram casos inexistentes e cometeram erros. Os pesquisadores relataram que o modelo GPT da OpenAI ofereceu respostas "inaceitáveis" e "prejudiciais à aprendizagem" em cerca de um quarto das vezes. Isso não é o ideal.
Considerando que a OpenAI e outras empresas desejam que seus chatbots sejam incorporados não apenas na sala de aula, mas em todos os aspectos da vida estudantil, há outros malefícios a serem considerados. A dependência de chatbots de IA pode ter um impacto negativo nas habilidades sociais. E o simples fato de as universidades estarem investindo em IA significa que elas não estão investindo em áreas que criariam interações mais humanas. Um aluno que vai a um tutor, por exemplo, cria uma interação social que exige o uso da inteligência emocional e o estabelecimento de confiança e conexão, o que, em última análise, contribui para um senso de comunidade e pertencimento. Um chatbot apenas emite uma resposta, que pode ou não estar correta.
Leia o artigo original, em inglês, aqui
Que meda!
A realidade mais assustadora da IA
A verdade mais absurda, assustadora e indiscutível sobre os grandes modelos de linguagem da IA é que as empresas que os desenvolvem não sabem exatamente por que ou como funcionam, escrevem Jim VandeHei e Mike Allen na coluna "Behind the Curtain".
Pense nisso por um momento. As empresas mais poderosas, correndo para desenvolver as capacidades de inteligência sobre-humana mais poderosas — aquelas que elas admitem prontamente que ocasionalmente se rebelam para inventar coisas ou até mesmo ameaçar seus usuários — não sabem por que suas máquinas fazem o que fazem.
Por que é importante: Com as empresas investindo centenas de trilhões de dólares em inteligência sobre-humana disposta a existir rapidamente, e Washington não fazendo nada para retardá-las ou policiá-las, parece valer a pena dissecar este Grande Desconhecido.
Nenhuma das empresas de IA contesta isso. Elas se maravilham com o mistério — e refletem sobre ele publicamente. Elas estão trabalhando arduamente para entendê-lo melhor. Elas argumentam que não é necessário compreender completamente uma tecnologia para domá-la ou confiar nela. Há dois anos, o editor-chefe de tecnologia da Axio, Scott Rosenberg, escreveu o artigo "O mistério mais assustador da IA", afirmando que é de conhecimento geral entre os desenvolvedores de IA que eles nem sempre conseguem explicar ou prever o comportamento de seus sistemas. E isso é mais verdadeiro do que nunca.
No entanto, não há sinais de que o governo, as empresas ou o público em geral exigirão uma compreensão mais profunda — ou escrutínio — da construção de uma tecnologia com capacidades além da compreensão humana. Eles estão convencidos de que a corrida para superar a China e alcançar os LLMs mais avançados justifica o risco do Grande Desconhecido.
🏛️ A Câmara, apesar de saber tão pouco sobre IA, incluiu no "Grande e Belo Projeto de Lei" do presidente Trump uma cláusula que proibiria estados e municípios de qualquer regulamentação de IA por 10 anos. O Senado está considerando limitações à disposição.
Nem as empresas de IA nem o Congresso compreendem o poder da IA daqui a um ano, muito menos daqui a uma década.
🖼️ Panorama geral: Nosso objetivo com esta coluna não é ser alarmista ou "pessimista". É explicar clinicamente por que o funcionamento interno dos modelos de inteligência sobre-humana é uma caixa-preta, mesmo para os criadores da tecnologia. Também mostraremos, em suas próprias palavras, como CEOs e fundadores das maiores empresas de IA concordam que se trata de uma caixa-preta.
Vamos começar com uma visão geral básica de como os LLMs funcionam, para explicar melhor o Grande Desconhecido:
LLMs — incluindo o ChatGPT da Open AI, o Claude da Anthropic e o Gemini do Google — não são sistemas de software tradicionais que seguem instruções claras e escritas por humanos, como o Microsoft Word. No caso do Word, ele faz exatamente o que foi projetado para fazer.
Em vez disso, LLMs são redes neurais massivas — como um cérebro — que ingerem enormes quantidades de informação (grande parte da internet) para aprender a gerar respostas. Os engenheiros sabem o que estão acionando e em quais fontes de dados se baseiam. Mas o tamanho do LLM — o número desumano de variáveis em cada escolha da "melhor próxima palavra" que ele faz — significa que nem mesmo os especialistas conseguem explicar exatamente por que ele escolhe dizer algo em particular.
Pedimos ao ChatGPT que explicasse isso (e um humano da OpenAI confirmou sua precisão): "Podemos observar o que um LLM produz, mas o processo pelo qual ele decide sobre uma resposta é amplamente opaco. Como os pesquisadores da OpenAI disseram sem rodeios, 'ainda não desenvolvemos explicações compreensíveis para humanos sobre por que o modelo gera resultados específicos'."
"Na verdade", continuou o ChatGPT, "a OpenAI admitiu que, quando ajustou a arquitetura do modelo no GPT-4, 'mais pesquisas são necessárias' para entender por que certas versões começaram a ter mais alucinações do que versões anteriores — um comportamento surpreendente e não intencional que nem mesmo seus criadores conseguiram diagnosticar completamente."
A Anthropic — que acaba de lançar o Claude 4, o modelo mais recente de seu LLM, com grande alarde — admitiu não ter certeza do motivo pelo qual o Claude, ao ter acesso a e-mails fictícios durante os testes de segurança, ameaçou chantagear um engenheiro por causa de um suposto caso extraconjugal. Isso fazia parte de um teste de segurança responsável — mas a Anthropic não consegue explicar completamente a ação irresponsável.
Mais uma vez, aceite isso: a empresa não sabe por que sua máquina se tornou desonesta e maliciosa. E, na verdade, os criadores não sabem ao certo o quão inteligentes ou independentes os LLMs poderiam se tornar. A Anthropic chegou a afirmar que o Claude 4 é poderoso o suficiente para representar um risco maior de ser usado para desenvolver armas nucleares ou químicas.
Leia o artigo original, em inglês, aqui
Alguém está preocupado
Pesquisadores da Apple questionam o "raciocínio" da IA
Houve um breve momento no ano passado em que parecia que os LLMs tradicionais estavam finalmente atingindo um limite de desempenho. Então, modelos de raciocínio como o o1 da OpenAI e o R1 da DeepSeek surgiram. Eles conseguiam lidar com solicitações mais complexas, dividindo os problemas em etapas menores.
A ideia era que os modelos de raciocínio ficariam cada vez melhores à medida que aplicássemos mais computação a eles. Eventualmente, eles seriam capazes de responder a perguntas sobre coisas nas quais nunca haviam sido treinados — e fazer novas descobertas. Mas um grupo de pesquisadores da Apple acaba de testar essa teoria.
O estudo: Pesquisadores deram a modelos de raciocínio e não raciocínio a chance de resolver uma série de quebra-cabeças. Com o quebra-cabeça mais simples, os modelos não raciocínio tiveram o melhor desempenho, pois são menos propensos a pensar demais. Enquanto isso, como era de se esperar, os modelos de raciocínio se saíram melhor com quebra-cabeças mais complexos e de nível médio.
Mas aqui está o problema: nos quebra-cabeças mais difíceis e de alto nível, a capacidade dos modelos de raciocínio de "pensar" caiu completamente. Na verdade, eles desistiram mais cedo do que o normal e nem se deram ao trabalho de tentar encontrar a resposta correta. Dar-lhes mais capacidade computacional também não pareceu ajudar.
O que isso significa: O estudo sugere que, em vez de serem fundamentalmente únicos, os modelos de raciocínio funcionam exatamente como seus equivalentes sem raciocínio — encontrando padrões nos dados com os quais já foram treinados. Embora não devamos tirar conclusões precipitadas de um único estudo, ele sugere que a IA pode estar mais distante do que pensávamos — e que precisaremos criar abordagens e arquiteturas diferentes para realmente levar a IA ao próximo nível.
Leia o artigo original, em inglês, aqui
Uai por essa ninguém esperava! Ótimo alerta também com relação ao uso como terapia. Importante e urgente.
Loucura pensar em tudo isso!!!