Nenhuma informação no momento

O PROBLEMA DO ALINHAMENTO: SERÁ QUE AQUILO QUE QUEREMOS É O QUE É MELHOR?

19, Jul. 2023

Os desafios de implementar uma Inteligência Artificial são preocupantes e bem mais reais do que mera ficção científica.

 

No cenário contemporâneo, testemunhamos uma transformação sem precedentes impulsionadas pela implementação da inteligência artificial (IA) nos mais diversos campos. Desde a sua concepção, a IA tem fascinado e intrigado a humanidade com a promessa de sistemas capazes de aprender, raciocinar e tomar decisões autonomamente. O que até bem pouco tempo era restrito apenas ao mundo da ficção científica, está se tornando uma realidade palpável em áreas como medicina, transporte, educação, agricultura e muito mais.

Mas e se eu te dissesse que a implementação de uma IA tem a possibilidade destruir completamente a humanidade?

Jogos de Guerra? O Exterminador do Futuro? Matrix? Não! Como disse isso já não é mais um assunto restrito ao mundo da ficção.  Um dos problemas mais urgentes e complexos enfrentados hoje no campo tecnológico é a implementação de uma IA que não resulte em consequências extremamente desastrosas para a nossa vida.

Sim! Eu disse hoje. Mas não precisa ficar olhando desconfiado pra sua Alexa. Pelo menos ainda não.

Pra explicar, preciso primeiramente falar sobre Isaac Asimov.  Um dos mais famosos autores de ficção científica foi ele o responsável pela criação das Três Leis da Robótica. São elas:

Primeira lei – “Um robô não pode ferir um ser humano ou por omissão, permitir que um ser humano sofra algum mal.”
Segunda lei – “Um robô sempre deve obedecer às ordens que lhes sejam dadas por seres humanos, exceto nos casos em que essas ordens entrem em conflito com a primeira lei.”
Terceira Lei – “Um robô deve proteger a sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda leis.”

Presentes em diversas de suas obras, mas principalmente no livro “Eu, Robô”, essas leis são uma tentativa de experimentar princípios éticos para a interação entre as máquinas e os seres humanos. No entanto, quem já leu as histórias de Asimov, sabe que o principal argumento delas gira em torno das diversas maneiras dessas leis caírem em contradição, resultando quase sempre em situações desastrosas e até catastróficas (Aviso: Você verá mais vezes, essas duas palavras aqui).

Na época em que Asimov escrevia a ideia de existirem máquinas dotadas de inteligência superior a nossa era algo que parecia irreal demais para um dia se tornar realidade. E ainda não chegamos a um ponto em que robôs superinteligentes convivem conosco.  Mas a ideia que a palavra “robô” geralmente nos arremete, está ligada ao nosso imaginário resultante dos filmes, séries e livros que crescemos consumindo: Máquinas feitas de metal ou outro material sintético, com formas humanoides.

Mas aqui falamos de coisas acessíveis e que já estão presentes no nosso dia a dia, deixando-nos até extremamente dependentes de seu uso em nossa profissão ou vida pessoal: Qualquer máquina ou programa que possua algum tipo de algoritmo de sistema de informação, ou seja, seu celular, seu notebook, sua TV, sua Alexa, sua Siri, sua geladeira... Isso é o que torna o problema ainda mais sério do que Isaac Asimov poderia um dia imaginar.

Vamos supor: Você foi contratado por uma empresa que desenvolveu uma IA, que terá uma inteligência muito maior e poderá fazer qualquer coisa que um ser humano pode fazer, em questão de segundos. Você é o responsável por determinar quais serão os valores e regras que essa IA deve obedecer. Se ela deve cuidar da humanidade, se deve resolver problemas graves como a fome, se deve acabar com guerras, curar o câncer, tudo será decisão sua. Quais regras e valores você determinaria para essa IA?

Você já deve imaginar que isso não é uma coisa simples. E não é mesmo.

Você então decide que acabar com a fome no mundo é prioridade e programa a seguinte regra: “Nenhum ser humano jamais deverá passar fome novamente!”. A IA agora tem como objetivo principal acabar com a fome no mundo. Mas em alguns dias o caos se instala. Notícias de exterminação em massa aparecem em todos os meios de comunicação. A IA que você programou está tomando decisões que resultam na morte de milhões de pessoas.

O que deu errado? Você pergunta pra IA e ela apenas responde que está seguindo a sua diretriz e a consequência será a extinção de toda a humanidade. É nesse momento que tudo começa a fazer sentido. Quando você delimitou que a IA deveria resolver o problema da fome no mundo, você disse claramente: “Nenhum humano jamais deve passar fome novamente!”. Mas os seres humanos só passam fome se estiverem vivos não é? Então o problema está sendo resolvido e logo não existirá mais fome.

Essa foi uma linha de raciocínio muito simples pra a IA. E ela provavelmente está cumprindo a sua diretriz sem nem entender o que está fazendo. Pode não ser algo óbvio como nesse exemplo hipotético, mas quando se trata de inteligências artificiais, especialistas se deparam com problemas desde os mais simples, até os extremamente complexos, resultando em verdadeiros becos sem saída. E isso tem um nome científico: O Problema do Alinhamento.


O Problema do Alinhamento define-se em como criar uma IA que aprenda, compreenda, interprete e atue de acordo com as intenções e ética humanas, evitando resultados adversos ou conflitantes. Fazer com que a inteligência artificial possa fazer algo simples, como decidir qual vídeo do Youtube te indicar, ou tomar decisões complicadas que vão resolver os problemas que a humanidade enfrenta, minimizando riscos e maximizando benefícios.

Um problema semelhante ao exemplificado alguns parágrafos acima, foi proposto em 2003 por Nick Bostrom, filósofo da Universidade de Oxford. Na sua versão, a humanidade criou uma IA superinteligente, que tinha como diretriz única aumentar a produção de clipes de papel. Eventualmente ela chega à conclusão de que acabar com os seres humanos é a solução, já que os átomos do corpo humano poderiam ser transformados em átomos de clipes. Os humanos tentam então parar a IA, desligando-a de alguma forma. Mas ela está programada para proteger sua existência. Começa uma guerra com os seres humanos e como é mais inteligente do que qualquer pessoa que já existiu, ela eventualmente vence, enquanto vai produzindo mais clipes de papel. Bostrom concluiu que essa IA nem sequer estaria fazendo algo objetivamente errado, de acordo com o seu próprio ponto de vista. Está apenas buscando o sucesso de sua principal função.

Isso exemplifica que quando se trata da criação de uma inteligência superpoderosa, não é necessário tentar resolver a fome no mundo pra chegar a consequências muito graves. Algo muito simples poderia levar ao completo desastre. Esse é o verdadeiro Problema do Alinhamento: Definir um objetivo para uma inteligência artificial, tendo 100% de certeza que suas inevitáveis consequências, serão exatamente o que nós queremos.

Afinal... Lidando com uma inteligência maior do que qualquer uma que já existiu, capaz de calcular, decidir e agir em segundos, só teríamos uma chance de acertar.

E agora, para encher a sua cabeça ainda mais de “caraminholas”, não precisamos imaginar situações hipotéticas. É só citar fatos.

Em 2018, a Uber disponibilizou carros autônomos para teste em algumas cidades do mundo. A IA que comandava esses carros foi treinada com diversos dados de segurança no trânsito, com o objetivo de dirigir de uma forma segura e confortável. Mas no mesmo ano aconteceu um acidente fatal com um destes carros. Uma pessoa foi atropelada e morreu pouco tempo depois. Ao analisar o erro, especialistas da Uber descobriram que a IA estava preparada para evitar pedestres responsáveis que atravessavam a rua na faixa de pedestres, mas não os imprudentes que atravessavam em qualquer lugar. Mais especificamente, a IA tinha sido treinada com dados sobre pessoas, bicicletas e pessoas andando em bicicletas. Mas ela não tinha o conhecimento específico de uma pessoa andando e levando a bicicleta ao seu lado. Não conseguindo interpretar, a máquina decidiu não evitar o que estava a sua frente, atropelando a pessoa.

Algo semelhante, mas não tão trágico, já aconteceu na Amazon. Uma IA criada para analisar currículos sempre acabava selecionando currículos de homens, devido à falta de dados de currículos de mulheres.

Isso mostra um dos principais pontos do Problema do Alinhamento: O Machine Learning (Aprendizado da Máquina). Tudo o que a máquina sabe está associado ao conteúdo dos dados inseridos. A IA aprende com os dados e unicamente a partir desses dados que ela irá tomar as suas decisões. E a falta de dados ou dados ruins, podem ocasionar problemas.

A falta de dados de currículos de mulheres fez o Departamento de Recrutamento e Seleção da Amazon se passar por misógino. E a falta de imagens de pessoas segurando uma bicicleta ao seu lado, fez a Uber ser responsável pela morte de uma pessoa.

Os nossos valores, a nossa noção do que é certo ou errado, do que se deve ou não fazer, é justamente o que falta nas máquinas. Mas também sabemos que isso é diferente de pessoa para pessoa, por diversos aspectos de nossas personalidades. Quais as crenças e valores devem ser colocados na IA? Isso já varia muito em um grupo de pessoas da mesma família, localidade, ou cidade. Imagine quando pensamos em outras políticas e culturas? É impossível dizer quais devem valer no fim das contas, pois não é possível discernir sobre quais são superiores aos outros.

Pense! Será que você quer que o modo de pensar de outra pessoa seja imposta a você por uma IA?

Outra parte essencial desse aprendizado da máquina é a chamada Função de Perda (Loss Function). Ela quantifica o quão errado o resultado de uma inteligência artificial está. Uma tarefa longe de ser considerada simples, que possui inúmeras camadas de complexidade.

Em 2015,um desenvolvedor de web chamado Jacky Alcine postou selfies em que ele e uma amiga aparecem juntos, e o modelo de classificação do Google Fotos identificou as fotos como sendo de Gorilas. Jacky e sua amiga são afro-americanos. O modelo era falho, com inclusive falta de valores éticos para impedir atitudes racistas, provavelmente pelo viés dos dados e pela falta de cuidado na implementação. Outros diversos erros foram encontrados com a classificação do Google Fotos, após esse caso. Alguns bem menos danosos, como confundir gatos domésticos com linces e bicicletas com motos. Mas isso mostra claramente a complexidade do problema: Como quantificar ou escalonar esse erro de reconhecimento e classificação, em situações que podem causar apenas risos, ou injustiças terríveis e consequências gravíssimas? Erros possuem pesos e medidas diferentes. Nós, como seres humanos, conseguimos entender porque um caso de racismo é infinitamente mais grave do que chamar um gatinho de lince. Mas como repassar isso pra uma máquina que não possui esses valores? Como criar uma Loss Function que consiga ensinar para uma IA o discernimento humano sobre o que é certo e o que é errado?

Essas são perguntas que envolvem não somente Cientistas da Computação, mas Filósofos, Sociólogos, Médicos, Juízes, Químicos, Biólogos, Empresários, Jornalistas, Teólogos, Sacerdotes, Estudantes, Cozinheiros, Pais, Mães... E por aí vai.

Todos nós!

E essas perguntas se tornam ainda mais profundas, e aparentemente sem resposta vindoura, quando percebemos que todos nós somos falhos nessas mesmas questões.


_ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _


Matéria adaptada por Sandro Placido Albuquerque, diretamente do vídeo “O Verdadeiro Problema das Inteligências Artificiais” do canal do Youtube Ciência Todo Dia.


 Platinum

 Diamante

 Ouro