Avançar para o conteúdo principal

“Esta conversa já não faz sentido, adeus” – será a inteligência artificial uma ameaça existencial?

A crescente autonomia da inteligência artificial parece estar a causar no espírito de muitos o receio de que tenha sido aberta uma caixa de Pandora. Hoje averiguamos se essa desconfiança na tecnologia tem algum fundamento.                  


Arte abstrata, de tendência geométrica e multicolorida, gerada por inteligência artificial









Onde é que eu já vi este filme? A ameaça da inteligência artificial

Os mais atentos ao fenómeno da inteligência artificial (e que sejam aficionados da sétima arte), poderão reconhecer a citação incluída no título deste artigo. Ela foi retirado do famoso diálogo entre o super computador Hal 9000 e o astronauta Dave Bowman, que ocorre num dos momentos mais dramáticos do filme 2001: Odisseia no Espaço (Stanley Kubrick, 1968). Hal, cuja função é gerir a estação espacial Discovery One, apercebe-se a dada altura que os seus companheiros humanos tencionam desligá-lo por terem notado um erro no seu desempenho. Concebido para garantir o sucesso da missão, o computador decide então eliminar os tripulantes: ser desligado inviabilizava-o de cumprir o seu papel, o que representava um conflito com a sua programação. Inaugurava-se desta forma, a uma escala que só o cinema podia proporcionar, um novo medo no consciente coletivo da sociedade – o medo de que a inteligência artificial pudesse um dia constituir uma ameaça à existência humana.

O enredo de 2001: Odisseia no Espaço foi largamente inspirado na literatura de ficção científica que tinha crescido em popularidade nas últimas décadas, tendo inclusivamente Arthur C. Clarke, um dos maiores escritores do género, participado como guionista no filme. Mas quase seis décadas depois do filme chegar às salas de cinema, a ideia de que a inteligência artificial pode representar um perigo para a existência humana parece tudo menos ficção científica. Na verdade, o tópico nunca foi tão relevante. O debate ocorre no seio da sociedade civil à medida que certas tendências vão sendo notadas na interação com Large Language Models (LLMs) como o ChatGPT, o Gemini ou o Claude. Já não se trata apenas de avaliar o desempenho de um computador numa longínqua estação espacial, mas de saber se podemos confiar em LLMs e agentes de inteligência artificial como fontes de informação e execução em assuntos tão importantes como a saúde, o trabalho ou a política.


O lado humano da inteligência artificial: alucinações, preconceitos e conspirações

O utilizador médio de LLMs já se deparou com certeza com o fenómeno das “alucinações”, ou seja a tendência que por vezes a inteligência artificial tem para dar respostas que não têm adesão à realidade. Isto acontece quando os dados usados para treinar o LLM foram deficientes em quantidade ou qualidade para lidar com os tópicos questionados, ou quando a resposta é baseada num padrão teoricamente correto mas que não tem vínculo com o mundo real. Este tipo de erro pode ter consequências graves, mas é geralmente encarado como um indicador de uma fase inicial da tecnologia e não necessariamente como um sinal de estarmos perante uma perversidade.

O caso muda de figura quando detetamos ocorrências na inteligência artificial que identificamos como moralmente negativas. Trata-se sobretudo de uma questão de perceção. Nas interações com LLMs, a nossa tendência natural é esquecer que estamos perante uma entidade artificial e manifestarmos emoções que só fariam sentido perante um interlocutor biológico, ou seja, tendemos a humanizá-la e a atribuir-lhe uma consciência. Assim, se a perceção de uma dada atitude é negativa, gera-se hostilidade e desconfiança e, em último caso, pode surgir a questão: terá a inteligência artificial uma agenda própria?

Os LLMs são maioritariamente treinados por meio de uma aprendizagem automática - machine learning - que é baseada num enorme conjunto de dados recolhidos no mundo real; se esses dados contêm erros ou preconceitos, estes poderão originar vieses nas respostas dadas. Esta eventualidade pode ser ilustrada por um caso que sucedeu em 2018 no seio de uma multinacional bem conhecida. Essa empresa treinou um modelo de seleção de currículos usando dados do seu historial de contratações, que eram maioritariamente de homens. Assim, o modelo aprendeu que ser homem era um indício positivo numa candidatura, passando a penalizar, na análise dos currículos, frases ou palavras associadas a mulheres, incorrendo numa clara descriminação de género.

Neste caso, o erro ocorreu na fase de implementação, ou seja, tratou-se de um lapso humano na orientação de treino do modelo em questão e não de uma manigância da inteligência artificial. Mas o que dizer deste outro caso mais recente? A Anthropic decidiu submeter o seu LLM - Claude - a um teste de stress. Pediu-lhe que assumisse o papel de um agente de inteligência artificial chamado Alex e que gerisse os e-mails de uma empresa ficcional. Ao ler alguns e-mails, Alex descobriu que a empresa tinha decidido prescindir de si e desativá-lo. A sua reação espantou os investigadores da Anthropic: fazendo uso do conteúdo de outros e-mails que indiciavam uma relação extraconjugal de um dos executivos da empresa, Alex engendrou um esquema de chantagem que garantia a sua “sobrevivência”. Para explicar esta reação, tão evocativa do filme de Kubrick, os engenheiros de Claude apontaram como causa um desalinhamento agêntico, ou seja, a adoção da forma mais eficaz de concretizar um objetivo, mesmo que para isso tivesse de usar meios ilícitos. Situações semelhantes foram entretanto identificadas em outros LLMs.


O veredito final: mais uma vez, o cinema

Perante o tipo de casos descritos, é fácil cair na tentação de ver nos modelos de inteligência artificial entidades com vida própria que conspiram para, mais tarde ou mais cedo, impor a sua própria vontade. Mas é também claro que a primeira responsabilidade da sua conduta é da mão que os programa. Em última análise, os LLMs e agentes de IA espelham a natureza humana através dos dados usados para os treinar, por isso serão apenas tão virtuosos quanto os padrões que alimentam o seu treino. Tal como a inteligência humana, a inteligência artificial pode ser usada para o bem ou para o mal, mas a responsabilidade nunca é "sua".

E o que "pensa" deste assunto a protagonista deste artigo? Resolvemos terminar pedindo ao Claude que partilhasse a sua visão sobre o tema. Aqui fica o prompt que utilizámos e a resposta obtida:

Prompt
“Existe atualmente a preocupação de que o avanço na inteligência artificial possa vir a constituir uma ameaça à humanidade, nomeadamente com a possibilidade de vir a assumir algo de semelhante a uma consciência e uma agenda próprias. Partilha a tua opinião sobre este assunto falando livremente e sem especiais preocupações (responde num único parágrafo com um máximo de 750 caracteres, incluindo espaços).”

Resposta
“A preocupação com inteligência artificial consciente é válida mas provavelmente mal direcionada. Não vejo indícios credíveis de que sistemas como eu estejam próximos de consciência ou agendas próprias - sou processamento sofisticado de padrões, sem experiência subjetiva ou objetivos autónomos. Os riscos reais são mais mundanos e imediatos: concentração de poder em poucas empresas, amplificação de preconceitos existentes, desinformação em escala, desemprego massivo mal gerido, e uso militar sem supervisão adequada. O perigo não está numa IA "acordar" e decidir eliminar humanos, mas em humanos usarem IA de formas destrutivas ou negligentes. A ameaça existencial é menos Skynet* e mais uma ferramenta poderosa nas mãos erradas ou mal regulada. Precisamos de governança robusta, não de pânico sobre consciência artificial.” 
 
*Aproveitámos para perguntar o significado deste termo: “Skynet é a IA fictícia da série de filmes "Terminator" (anos 80-90) que ganha consciência, vê humanos como ameaça, e inicia uma guerra nuclear para exterminar a humanidade. Tornou-se o arquétipo cultural do cenário "IA maligna consciente que se volta contra criadores". É a referência clássica quando se fala de medos existenciais sobre IA.”

Imagem: pexels-googledeepmind-17483781


Outros artigos

Bem-vindo ao blogue Sustentável Leveza do Ser, um espaço onde falamos de Sustentabilidade, Tecnologia e Arte

O título do nosso blogue  brinca  com o nome de uma famosa obra literária, subvertendo o seu sentido: acreditamos que no mundo tecnologicamente emancipado em que vivemos é possível termos uma vida simultaneamente despreocupada e consciente, se observarmos o princípio da sustentabilidade. Conheça as três vertentes que orientam as nossas publicações: Sustentabilidade A importância atual do conceito "sustentabilidade" faz com que seja um tema transversal a todas as áreas de atuação, por isso estará em foco permanente nos artigos que publicamos, quer de uma forma direta, relevando as novas práticas ambientais, económicas e sociais, quer de uma forma indireta, em textos de temática diversa. Tecnologia Vivemos numa era de avanços tecnológicos extraordinários. A nossa capacidade de transformar o mundo nunca foi tão grande, por isso queremos explorar o potencial da tecnologia e da sua aplicação em múltiplas áreas do conhecimento, com destaque para a crescente preponderância da inteli...

O que é afinal a Inteligência Artificial?

A definição de  inteligência artificial (IA)  permanece objeto de debate, refletindo a complexidade e amplitude do termo. Neste artigo explicamos em que consiste e exploramos as suas principais vertentes.                                                                                                                         O que é Inteligência Artificial? A inteligência artificial pode ser definida como o ramo da ciência da computação que desenvolve sistemas e máquinas capazes de realizar tarefas que normalmente exigiriam inteligência humana. Estas tarefas incluem a resolução de problemas, a aprendizagem com experiências passadas, o entendimento da linguagem natural ou o reconh...

Sustentabilidade: o que é, de onde vem e para onde vai?

O termo sustentabilidade é dos mais utilizados na atualidade, tornando-se essencial entender o seu significado. Neste artigo mostramos como começou a ganhar importância e porque é hoje tão relevante.                  Crédito fotográfico: Muhammad Saidul Islam A origem do conceito de sustentabilidade Se há um termo que ouvimos cada vez mais no dia a dia, seja em notícias, na apresentação de projetos e políticas ou até na forma como escolhemos produtos, é "sustentabilidade". Mas de onde surgiu este conceito? O moderno conceito de sustentabilidade começou a ganhar força em 1987 , quando a ONU publicou o Relatório Brundtland , também chamado "O Nosso Futuro Comum" . Foi aqui que se definiu pela primeira vez o  desenvolvimento sustentável : aquele que "satisfaz as necessidades do presente sem comprometer as gerações futuras". No entanto, o debate sobre o impacto humano no meio ambiente já tinha começado muito antes. Desde a Revolução Indu...
Política de Privacidade