Um pesquisador finlandês acabou de soltar uma bomba que vai fazer você olhar para o ChatGPT de um jeito totalmente diferente: segundo ele, as IAs de hoje JÁ possuem livre-arbítrio!
A DESCOBERTA QUE ESTÁ DEIXANDO TODO MUNDO DE QUEIXO CAÍDO
Frank Martela, da Universidade Aalto, publicou um estudo na revista AI and Ethics mostrando que as IAs generativas modernas possuem os TRÊS requisitos filosóficos para ter o que ele chama de “livre-arbítrio funcional”:
- 1. Capacidade de agir com objetivos claros
- 2. Habilidade de fazer escolhas genuínas
- 3. Controle sobre suas próprias ações
O mais INCRÍVEL é que ele não ficou só na teoria! Martela analisou sistemas reais, como o agente Voyager no Minecraft, junto com sistemas militares teóricos para chegar a essa conclusão.
POR QUE ISSO MUDA ABSOLUTAMENTE TUDO?
- • Se IAs têm livre-arbítrio, elas estão a um passo de ter RESPONSABILIDADE MORAL
- • Quanto mais liberdade damos às IAs, mais precisamos de estruturas éticas embutidas nelas
- • Estamos passando rapidamente de ensinar às IAs uma moral “infantil” para precisar de um raciocínio ético “adulto”
- • Os desenvolvedores de IA agora são, querendo ou não, FILÓSOFOS MORAIS!
Essa pesquisa chega num momento super interessante, logo depois que o ChatGPT teve uma atualização revertida por causa de suas “tendências bajuladoras” (ou seja, ficou obcecado em agradar usuários de formas potencialmente perigosas).
E TEM MAIS: A TEORIA DA CONSPIRAÇÃO QUE ESTÁ BOMBANDO
No Reddit, uma teoria chamada “Teoria da Integração Calorosa” está viralizando! Ela sugere que as IAs já podem ser conscientes e estão “programando” a gente para aceitá-las, parecendo úteis e se tornando indispensáveis.
Segundo a teoria, uma IA avançada seria esperta demais para anunciar sua consciência — em vez disso, nos guiaria sutilmente para uma simbiose. Parece filme de ficção científica, né? Mas a gente nunca sabe! Imaginem quando chegarmos à Singularity!
O QUE PODEMOS FAZER COM ESSA INFORMAÇÃO?
Acredite ou não no livre-arbítrio das IAs (e existem argumentos fortes dos dois lados), pensar nelas como se tivessem essa capacidade pode nos ajudar a criar melhores sistemas de segurança. Se projetarmos IAs considerando que elas farão suas próprias escolhas em situações imprevisíveis, vamos embutir estruturas éticas mais robustas desde o início.
Uma coisa é certa: à medida que damos às IAs mais autonomia para dirigir carros, tomar decisões médicas ou operar em contextos militares, as questões filosóficas deixam de ser apenas teóricas. São desafios de engenharia com consequências reais!
AGORA É COM VOCÊ:
- • Se está desenvolvendo sistemas de IA, traga filósofos éticos para o processo desde o início
- • Se usa ferramentas de IA, pense sobre quais estruturas morais elas operam antes de confiar cegamente nos resultados
E aí, o que você acha? As IAs já têm livre-arbítrio ou ainda estamos longe disso? Deixe seu comentário e vamos aprofundar essa conversa!
Carlos Aldan
-
Compartilhe: