É preciso de mais do que dados para criar carros autônomos éticos

É preciso de mais do que dados para criar carros autônomos éticos

O que queremos que carros autônomos façam em acidentes fatais inevitáveis? Ontem, pesquisadores do MIT publicaram o estudo The Moral Machine para abordar essa questão.

Para criar dados para o estudo, quase 40 milhões de pessoas de 233 países usaram um site para registrar decisões sobre quem salvar e quem deixar morrer em cenários hipotéticos de um carro autônomo. É uma versão do clássico “dilema do bonde” – onde você tem que escolher que as pessoas para priorizar em uma emergência.

Algumas das principais descobertas são intuitivas: os participantes, em sua maioria, preferem salvar as pessoas em vez dos animais, os jovens em detrimento dos idosos. Outras preferências são mais preocupantes: mulheres no lugar de homens, executivos no lugar de desabrigados, as pessoas esportistas no lugar das pessoas obesas.

O experimento é algo sem precedentes, em questão de escopo e sofisticação: agora temos uma noção muito melhor de como as preferências das pessoas em tais dilemas variam em todo o mundo. Os autores, sensatamente, alertam contra a obtenção dos resultados como um guia simples para o que os carros autônomos deveriam fazer.

Mas este é apenas o primeiro passo no que deve ser um debate vigoroso. E nesse debate, pesquisas como essas (por mais interessantes que sejam) podem ter apenas um papel limitado.

Quão bom é o nosso primeiro julgamento?

As máquinas são muito mais rápidas que nós e elas não entram em pânico. Na melhor das hipóteses, elas podem incorporar nossa sabedoria e aplicá-la com eficiência, mesmo em circunstâncias angustiantes. Para fazer isso, no entanto, precisamos começar com bons dados.

Os cliques em questionários online são uma ótima maneira de descobrir o que as pessoas pensam antes de fazer o julgamento. No entanto, obviamente, não consideramos a questão dos preconceitos. Os autores do estudo não definiram raça e nacionalidade como motivos de escolha, e com razão.

Um bom projeto de pesquisa não pode ser feito no vácuo. E as preferências morais não devem ser apenas gostos pessoais. Para elaborar a decisão moralmente correta a ser feita (pense em qualquer escolha moralmente pesada que você tenha enfrentado), é preciso pensar seriamente.

Queremos basear a inteligência artificial ética em nossos melhores julgamentos, não necessariamente os primeiros.

O mundo real é “imprevisível”

O estudo usou dilemas que envolviam dois resultados certos: ou você definitivamente bateu no carrinho de bebê ou definitivamente matou o cachorro.

Mas as decisões reais envolvem uma incerteza significativa: você pode não ter certeza se a pessoa à frente é uma criança ou um adulto pequeno, se acertá-las mataria ou se apenas causaria ferimentos, se um desvio de alta velocidade poderia funcionar ou não.

Os computadores podem fazer previsões melhores, mas o mundo é intrinsecamente “imprevisível”. E isso é um grande problema. Ambas as preferências, em certos casos, chegam tão longe em nos dizer exatamente o que fazer apenas em situações arriscadas.

Suponhamos que um veículo autônomo tenha de escolher entre se deixar cair e assim matar seu passageiro idoso, ou então desviar para o lado e matar um bebê. A experiência da máquina moral prevê que as pessoas estão do lado da criança. Mas não diz o quanto preferimos poupar um do outro. Talvez seja quase uma incógnita, e nós apenas nos inclinamos a poupar a criança. Ou talvez salvar a criança seja muito mais importante do que salvar o aposentado.

As opiniões sobre isso serão extremamente diversas e essa pesquisa não nos oferece nenhuma orientação. Mas não podemos saber como pesar, digamos, uma probabilidade de 10% de matar a criança contra uma probabilidade de 50% de matar o pensionista, a menos que saibamos quanto é mais importante poupar um do que poupar o outro.

Já que literalmente toda escolha feita por carros autônomos será feita sob incerteza, esse é um objetivo significativo.

O que as pesquisas não podem nos dizer

A motivação para o experimento da Máquina Moral é compreensível. A responsabilidade de codificar a próxima geração de inteligência artificial ética é assustadora. A discordância moral parece abundante, e uma pesquisa parece ser uma boa maneira de triangular opiniões em um mundo aquecido.

Mas como lidamos com divergências morais não é apenas um problema científico. É também moral. E, desde os tempos dos antigos gregos, a solução para esse problema moral não é agregar preferências, mas a participação democrática.

Sem dúvidas, a democracia é algo que está em crise em diversas partes do mundo. Mas ela continua sendo nossa ferramenta mais importante para tomar decisões na presença inevitável de um desacordo.

A tomada de decisão democrática não pode ser reduzida a marcar uma cédula ou apertar alguns botões. Isso envolve a necessidade de um cidadão levar seu voto a sério. Envolve participação, debate e justificação mútua.

Pesquisas como essa podem não nos dizer por que as pessoas fazem suas escolhas, e o fato de a decisão de um carro autônomo se correlacionar com as opiniões dos outros não justifica, por si só, essa escolha (imagine um motorista humano justificando suas ações em um acidente da mesma forma).

A justificação mútua é o coração da cidadania democrática. E pressupõe abordar questões acerca não apenas com o que nossas escolhas são, mas por que as fazemos.

Decidindo juntos

Estudos como esse são intrinsecamente interessantes, e os autores de The Moral Machine são admiravelmente explícitos sobre o que é e o que não é projetado para ser mostrado. Para construir sobre essas bases, precisamos refletir muito mais sobre como ponderar nossos compromissos morais sob a incerteza. E precisamos fazer isso como parte de um processo democrático inclusivo, no qual não apenas agregamos as preferências das pessoas, mas levamos a sério a tarefa de decidir, juntos, o futuro da nossa inteligência artificial.

___

Gostou do texto e quer fazer parte da nossa comunidade? Envie uma sugestão de pauta, um texto autoral ou críticas sobre o conteúdo para [email protected].

Compartilhe esse artigo: