Google I/O: As novas tecnologias precisam ser pensadas para todos

Google I/O: As novas tecnologias precisam ser pensadas para todos

A frase que intitula este texto parece ser lógica, mas não é assim que funciona na vida real. Nos últimos anos, o InovaSocial mostrou várias soluções de tecnologias sociais e como elas impactam na vida cotidiana de uma grande parcela da população mundial. De mochilas com inteligência artificial que ajuda deficientes visuais, passando por mini florestas como purificador de ar, até escola impressa em 3D; os exemplos são variados. Mas todas essas soluções já nasceram com o foco social no centro do projeto. E quando o foco não é só esse?

Na última semana, o Google I/O (conferência de desenvolvedores) apresentou diversas tecnologias que a gigante de Menio Park vem trabalhando. Para quem não está acostumado com este tipo de conferência, o I/O é um evento anual onde o Google apresenta suas últimas novidades, mesmo que ainda em fase de testes. Foi nele que vimos, pela primeira vez, o projeto do Quayside, um bairro high-tech na cidade de Toronto, no Canadá, mas que já sofreu inúmeras mudanças desde que foi apresentado.

Voltando ao I/O 2021, vimos que o futuro do Google depende, em grande parte, da sua capacidade de continuar executando soluções em IA e como trabalha com a privacidade dos usuários. Dois projetos nesta linha são o “MUM” (“Multitask Unified Model”, em inglês) e o LaMDA (Language Model for Dialogue Applications). O primeiro tem como objetivo ser a evolução dos motores de busca, um dos carros-chefes da empresa, fazendo com que as respostas sejam mais elaboradas. De acordo com o Google, o MUM responderá da maneira que “um especialista faria”. A plataforma é treinada em 75 idiomas e não apenas entende as línguas humanas, mas também consegue formular as palavras e frases.

Já o LaMDA lembra muito a assistente virtual do filme “Her”. O sistema é baseado na arquitetura de rede neural do Google chamada “Transformer”. Essa rede neural é capaz de ler ou ouvir palavras — ou conjunto de palavras —, identificar as relações entre essas palavras em diferentes cenários e prever respostas razoáveis ​​quando usadas em uma conversa. Resumindo, o sistema consegue conversar com você de uma forma quase humana.

Ainda sobre o  LaMDA, a solução pode não parecer novidades, afinal, já falamos sobre o Google Duplex anteriormente, uma solução que parecia ser bem semelhante (veja o vídeo aqui). “Mas, ao contrário da maioria dos outros modelos de linguagem, o LaMDA foi treinado no diálogo. Durante seu treinamento, ele aprendeu várias das nuances que distinguem a conversação aberta de outras formas de linguagem”, disse o Google.

Treinamento. Esse é o ponto principal de todas as novas tecnologias baseadas em inteligência artificial. Quando falamos em IA, parece que elas se formam sozinhas, como um gesto mágico ou uma alternativa que parece ter saído de um livro de ficção científica. Mas não é bem assim, todas as soluções atuais são treinadas por seus criadores. E, para quem já trabalhou neste mercado, sabe que a diversidade não é a maior qualidade deste setor. Apesar de hoje existirem muitas iniciativas para inclusão de outros públicos nas áreas de STEM, ainda existe uma hegemonia de profissionais dentro das Big Techs. Estamos longe dos 50/50 de homens e mulheres, por exemplo.

Pode parecer que isso não reflete em nada, já que estamos falando em bits e bytes, mas isso é quase crucial. Exige que as respostas de soluções como a LaMDA não sejam apenas convenientes, mas também adequadas e não machuquem ou prejudiquem os usuários. Exige que o Google elimine qualquer preconceito enquanto treina a rede neural que pode levar a incitação ao ódio ou à disseminação de informações incorretas.

Em 2016, a Microsoft criou uma IA que interagia com os usuários do Twitter. Ela aprendia com as mensagens enviadas para o seu perfil. Parecia uma ideia incrível. Se não fosse por um detalhe: Em menos de 24 horas, a Tay (como era chamada a solução, @TayandYou) virou uma bot nazista e “viciada” em sexo, com direito a mensagens antissemitas, xenofóbicas e sexistas. A parte boa da história é que, pelo menos a Microsoft, aprendeu que não dá para deixar a aprendizagem de inteligências artificiais tão abertas. Além disso, Tay era inofensiva. Ela poderia ser desativada a qualquer momento — e foi o que aconteceu, além de não estar presente na casa de milhares consumidores, como a Alexa, Siri ou Google Assistente.

IA nazistas são apenas a ponta do iceberg e são fáceis de serem identificadas, mas o problema não termina aí. Ainda no Google I/O, foi apresentado um aplicativo de dermatologia que, segundo a empresa, consegue identificar mais de 280 doenças de pele a partir  de fotos. O aplicativo surgiu de um estudo de maio de 2020, publicado na revista Nature Medicine e assinado por pesquisadores do Google, que demonstrava a eficácia do uso de aprendizagem profunda para reconhecer problemas de pele.

O erro não está na tecnologia, mas no público onde foram coletados os dados. Para realizar a tarefa, os pesquisadores usaram um conjunto de dados de treinamento de 64.837 imagens de 12.399 pacientes localizados em dois estados dos EUA. Mas dos milhares de problemas de pele retratados, apenas 3.5% eram de pacientes com tipos de pele Fitzpatrick V e VI, ou seja, com pele mais escura. Cerca de 90% do banco de dados era composto por pessoas com pele clara, pele branca mais escura ou pele morena clara, de acordo com o estudo. Como resultado da amostragem tendenciosa, os dermatologistas dizem que o aplicativo pode acabar super ou sub diagnosticando pessoas que não são brancas.

A questão racial e o viés dos algoritmos não é uma discussão nova. O documentário “Coded Bias” (disponível na Netflix), é muito didático ao mostrar como a pesquisadora Joy Buolamwini, do MIT, identificou falhas na tecnologia de reconhecimento facial quando aplicadas em pessoas com pele escura. Em uma apresentação do TED (veja abaixo), feita em novembro de 2016, Buolamwini já alertava para a questão. Passados quase cinco anos, ainda vemos os mesmos erros sendo aplicados.

How I'm fighting bias in algorithms | Joy BuolamwiniHow I’m fighting bias in algorithms | Joy Buolamwini

Isso não quer dizer que os pesquisadores do Google são racistas. Só reforça que existe uma bolha dentro do mercado de tecnologia. Uma bolha que precisa ser eliminada, para que as novas tecnologias sejam pensadas para todos. Estamos falando de mentes brilhantes, mas que precisam de um suporte para observar além do próprio círculo. Além disso, quando há diversidade, seja racial, de gênero e/ou cultural, outras experiências, outros pontos de vista são compartilhados. É um experimento de empatia, de humanidade; antes de experimentar novas soluções.

E por falar em humanidade, a pandemia nos lembrou como é difícil ficar longe daqueles que amamos. Segundo o Google, “ao longo dos anos, criamos produtos para ajudar as pessoas a se sentirem mais conectadas. Simplificamos o e-mail com o Gmail, tornamos mais fácil compartilhar o que é importante com o Google Fotos e ser mais produtivo com o Google Meet. Mas, embora tenha havido avanços nessas e em outras ferramentas de comunicação ao longo dos anos, elas estão muito longe de realmente sentar e conversar cara a cara.”

Em comunicado oficial, a empresa completa: “Para resolver este desafio, estamos trabalhando há alguns anos no Projeto Starline (veja o vídeo abaixo) — um projeto de tecnologia que combina avanços em hardware e software para permitir que amigos, famílias e colegas de trabalho se sintam juntos, mesmo quando estão em cidades (ou países) separados .”

Leia também: As previsões da Singularity University até 2038 – Parte I: A próxima década

Usando captura de vídeo e telas 3D, redes rápidas e inteligência artificial, o projeto Starline permite que as videoconferências sejam elevadas a um novo patamar. “Para tornar essa experiência possível, estamos aplicando pesquisas em visão computacional, aprendizado de máquina, áudio espacial e compressão em tempo real. Também desenvolvemos um sistema inovador de exibição de campo de luz que cria uma sensação de volume e profundidade que pode ser experimentada sem a necessidade de óculos ou fones de ouvido adicionais. O efeito é a sensação de uma pessoa sentada à sua frente, como se ela estivesse bem ali.”

O comunicado continua. “Uma das coisas de que mais nos orgulhamos é que, assim que você se senta e começa a falar, a tecnologia desaparece em segundo plano e você pode se concentrar no que é mais importante: a pessoa à sua frente. O Projeto Starline está atualmente disponível em apenas alguns de nossos escritórios e conta com hardware personalizado e equipamentos altamente especializados. Acreditamos que é aqui que a tecnologia de comunicação pessoa a pessoa pode e deve ir e, com o tempo, nosso objetivo é tornar essa tecnologia mais acessível e acessível, incluindo alguns desses avanços técnicos em nosso conjunto de produtos de comunicação.” Esperamos que essa acessibilidade seja levada a todos os produtos, não só do Google, mas das futuras inovações tecnológicas.

Project Starline: Feel like you're there, togetherProject Starline: Feel like you’re there, together