A crescente autonomia da inteligência artificial parece estar a causar no espírito de muitos o receio de que tenha sido aberta uma caixa de Pandora. Hoje averiguamos se essa desconfiança na tecnologia tem algum fundamento.
Onde é que eu já vi este filme? A ameaça da inteligência artificial
Os mais atentos ao fenómeno da inteligência artificial (e que sejam aficionados da sétima arte), poderão reconhecer a citação incluída no título deste artigo. Ela foi retirado do famoso diálogo entre o super computador Hal 9000 e o astronauta Dave Bowman, que ocorre num dos momentos mais dramáticos do filme 2001: Odisseia no Espaço (Stanley Kubrick, 1968). Hal, cuja função é gerir a estação espacial Discovery One, apercebe-se a dada altura que os seus companheiros humanos tencionam desligá-lo por terem notado um erro no seu desempenho. Concebido para garantir o sucesso da missão, o computador decide então eliminar os tripulantes: ser desligado inviabilizava-o de cumprir o seu papel, o que representava um conflito com a sua programação. Inaugurava-se desta forma, a uma escala que só o cinema podia proporcionar, um novo medo no consciente coletivo da sociedade – o medo de que a inteligência artificial pudesse um dia constituir uma ameaça à existência humana.
O enredo de 2001: Odisseia no Espaço foi largamente inspirado na literatura de ficção científica que tinha crescido em popularidade nas últimas décadas, tendo inclusivamente Arthur C. Clarke, um dos maiores escritores do género, participado como guionista no filme. Mas quase seis décadas depois do filme chegar às salas de cinema, a ideia de que a inteligência artificial pode representar um perigo para a existência humana parece tudo menos ficção científica. Na verdade, o tópico nunca foi tão relevante. O debate ocorre no seio da sociedade civil à medida que certas tendências vão sendo notadas na interação com Large Language Models (LLMs) como o ChatGPT, o Gemini ou o Claude. Já não se trata apenas de avaliar o desempenho de um computador numa longínqua estação espacial, mas de saber se podemos confiar em LLMs e agentes de inteligência artificial como fontes de informação e execução em assuntos tão importantes como a saúde, o trabalho ou a política.
O lado humano da inteligência artificial: alucinações, preconceitos e conspirações
O utilizador médio de LLMs já se deparou com certeza com o fenómeno das “alucinações”, ou seja a tendência que por vezes a inteligência artificial tem para dar respostas que não têm adesão à realidade. Isto acontece quando os dados usados para treinar o LLM foram deficientes em quantidade ou qualidade para lidar com os tópicos questionados, ou quando a resposta é baseada num padrão teoricamente correto mas que não tem vínculo com o mundo real. Este tipo de erro pode ter consequências graves, mas é geralmente encarado como um indicador de uma fase inicial da tecnologia e não necessariamente como um sinal de estarmos perante uma perversidade.
O caso muda de figura quando detetamos ocorrências na inteligência artificial que identificamos como moralmente negativas. Trata-se sobretudo de uma questão de perceção. Nas interações com LLMs, a nossa tendência natural é esquecer que estamos perante uma entidade artificial e manifestarmos emoções que só fariam sentido perante um interlocutor biológico, ou seja, tendemos a humanizá-la e a atribuir-lhe uma consciência. Assim, se a perceção de uma dada atitude é negativa, gera-se hostilidade e desconfiança e, em último caso, pode surgir a questão: terá a inteligência artificial uma agenda própria?
Os LLMs são maioritariamente treinados por meio de uma aprendizagem automática - machine learning - que é baseada num enorme conjunto de dados recolhidos no mundo real; se esses dados contêm erros ou preconceitos, estes poderão originar vieses nas respostas dadas. Esta eventualidade pode ser ilustrada por um caso que sucedeu em 2018 no seio de uma multinacional bem conhecida. Essa empresa treinou um modelo de seleção de currículos usando dados do seu historial de contratações, que eram maioritariamente de homens. Assim, o modelo aprendeu que ser homem era um indício positivo numa candidatura, passando a penalizar, na análise dos currículos, frases ou palavras associadas a mulheres, incorrendo numa clara descriminação de género.
Neste caso, o erro ocorreu na fase de implementação, ou seja, tratou-se de um lapso humano na orientação de treino do modelo em questão e não de uma manigância da inteligência artificial. Mas o que dizer deste outro caso mais recente? A Anthropic decidiu submeter o seu LLM - Claude - a um teste de stress. Pediu-lhe que assumisse o papel de um agente de inteligência artificial chamado Alex e que gerisse os e-mails de uma empresa ficcional. Ao ler alguns e-mails, Alex descobriu que a empresa tinha decidido prescindir de si e desativá-lo. A sua reação espantou os investigadores da Anthropic: fazendo uso do conteúdo de outros e-mails que indiciavam uma relação extraconjugal de um dos executivos da empresa, Alex engendrou um esquema de chantagem que garantia a sua “sobrevivência”. Para explicar esta reação, tão evocativa do filme de Kubrick, os engenheiros de Claude apontaram como causa um desalinhamento agêntico, ou seja, a adoção da forma mais eficaz de concretizar um objetivo, mesmo que para isso tivesse de usar meios ilícitos. Situações semelhantes foram entretanto identificadas em outros LLMs.
O veredito final: mais uma vez, o cinema
Perante o tipo de casos descritos, é fácil cair na tentação de ver nos modelos de inteligência artificial entidades com vida própria que conspiram para, mais tarde ou mais cedo, impor a sua própria vontade. Mas é também claro que a primeira responsabilidade da sua conduta é da mão que os programa. Em última análise, os LLMs e agentes de IA espelham a natureza humana através dos dados usados para os treinar, por isso serão apenas tão virtuosos quanto os padrões que alimentam o seu treino. Tal como a inteligência humana, a inteligência artificial pode ser usada para o bem ou para o mal, mas a responsabilidade nunca é "sua".
E o que "pensa" deste assunto a protagonista deste artigo? Resolvemos terminar pedindo ao Claude que partilhasse a sua visão sobre o tema. Aqui fica o prompt que utilizámos e a resposta obtida:
Prompt
“Existe atualmente a preocupação de que o avanço na inteligência artificial possa vir a constituir uma ameaça à humanidade, nomeadamente com a possibilidade de vir a assumir algo de semelhante a uma consciência e uma agenda próprias. Partilha a tua opinião sobre este assunto falando livremente e sem especiais preocupações (responde num único parágrafo com um máximo de 750 caracteres, incluindo espaços).”
Resposta
“A preocupação com inteligência artificial consciente é válida mas provavelmente mal direcionada. Não vejo indícios credíveis de que sistemas como eu estejam próximos de consciência ou agendas próprias - sou processamento sofisticado de padrões, sem experiência subjetiva ou objetivos autónomos. Os riscos reais são mais mundanos e imediatos: concentração de poder em poucas empresas, amplificação de preconceitos existentes, desinformação em escala, desemprego massivo mal gerido, e uso militar sem supervisão adequada. O perigo não está numa IA "acordar" e decidir eliminar humanos, mas em humanos usarem IA de formas destrutivas ou negligentes. A ameaça existencial é menos Skynet* e mais uma ferramenta poderosa nas mãos erradas ou mal regulada. Precisamos de governança robusta, não de pânico sobre consciência artificial.”
*Aproveitámos para perguntar o significado deste termo: “Skynet é a IA fictícia da série de filmes "Terminator" (anos 80-90) que ganha consciência, vê humanos como ameaça, e inicia uma guerra nuclear para exterminar a humanidade. Tornou-se o arquétipo cultural do cenário "IA maligna consciente que se volta contra criadores". É a referência clássica quando se fala de medos existenciais sobre IA.”
Imagem: pexels-googledeepmind-17483781
