Inteligência artificial: da ubiquidade à responsabilidade

Ao abordar diferentes perspectivas da tecnologia, o SXSW destaca a onipresença e o impacto da IA na sociedade e na economia

Depois de ser abordada com deslumbramento e hype em 2023, a Inteligência Artificial foi objeto de uma trilha temática com tom mais prático na edição deste ano do SXSW, maior festival de inovação do mundo, realizado entre os dias 8 e 16 de março, em Austin (Texas, EUA). A abordagem foi cravada no impacto da tecnologia nos negócios e na vida das pessoas e nas implicações da escalabilidade da IA em diversas interfaces conectadas. 

Na esteira do debate, emerge o conceito de ubiquidade, que, sob a ótica da teologia, significa onipresença, contexto esse mais do que apropriado para uma tecnologia que está embarcada em praticamente todos os serviços digitais da atualidade, tanto nas camadas B2C quanto B2B. O termo é a base do que Amy Webb chamou em sua apresentação de ecossistemas conectados, com dispositivos que se comunicam e cooperam entre si, captando e trocando dados e criando experiências cada vez mais personalizadas. 

No papel de representante do ChatGPT, o vice-presidente de consumo da Open AI, Peter Deng, disse acreditar que a IA recupera e amplifica aspectos humanos essenciais para os negócios, como a curiosidade e a reflexão. “Nossa mente está muito ocupada atualmente. Precisamos de tempo para explorar ideias, arquitetar na mente e pausar. A IA nos libera para atingir níveis mais altos de pensamento”, destacou.

No campo da criatividade, a CEO da fabricante de chips AMD, Lisa Su, ressaltou a parceria da empresa na criação de filmes e games, como War is Over! e Avatar. “Queremos maximizar o tempo. Não quero que meus colaboradores apertem um botão para renderizar um vídeo e isso demore horas ou dias”, disse David Conley, produtor da Wetã FX, ao dividir o palco com Lisa.

Superciclo tecnológico × singularidade

Enquanto Amy Webb, do Future Today Institute, vê a IA em convergência com ecossistemas de dispositivos conectados e biotecnologia, fazendo com que estejamos prestes a entrar em um novo superciclo tecnológico, o escritor e pesquisador Ray Kursvweil explicou no SXSW o que defende em seu livro The Singularity is Nearer. Para ele, a IA vai atingir a inteligência humana, inclusive no campo emocional, em 2029. “Não há nada que matemática e computação não possam copiar”. Questionado pelo jornalista Nick Thompson, CEO da The Atlantic, sobre a consciência, o escritor disse que a consciência não é algo científico. “Não é algo que conseguimos provar”, provocou.

 ABORDAGENS DE 
TRANSIÇÃO TECNOLÓGICA 
 Superciclo tecnológico Singularidade 
 Amy Webb vê a convergência entre IA, ecossistemas de dispositivos conectados e biotecnologia como o início de uma nova era cuja transição já começou.  Ray Kurzweil defende que, em 2029, a humanidade terá os recursos de IA necessários “para que máquinas atinjam a inteligência humana, inclusive a inteligência emocional”. 
 Humanidade amplificadaAs próximas gerações serão muito diferentes das que vivem hoje, tanto nas relações emocionais como no trabalho, na saúde e na longevidade, com a IA sendo uma assistente essencial. HumanoidesNesse cenário, será possível implantar chips do tamanho de um grão de ervilha no cérebro das pessoas, de modo a amplificar capacidades ou curar doenças. 

Cenários positivos e negativos

Em termos de desenvolvimento, a IA pode ser didaticamente dividida conforme a proposta de Mike Bechtel, com casos de uso positivo e benéfico (deslumbramento) e com potencialidades de uso malicioso (motivo de atenção e preocupação).

Cenários do uso e aplicação de IA
DeslumbramentoPreocupação
“Download” de conhecimento para um “segundo cérebro”, que poderá ser acionado com mais rapidez.Capacidade “operacional” criativa aumentada e mais poder à imaginação.Viés e exclusão codificada (excoded)Bases incompletas fora do idioma inglês.Desinformação produzida em massa.

DESLUMBRAMENTO

Download de cérebros
O conhecimento ainda hoje é algo que fica armazenado na mente de uma ou de várias pessoas de uma organização. Isso significa que, para produzir resultados a partir deste conhecimento, é preciso reunir essas mentes e oferecer a elas tempo para produzir resultados a partir dos dados armazenados nessas mentes. Uma das propostas de cenário de deslumbramento com o uso de IA vem de Ian Beacroft, da Cipher Signal, que sugere ser possível “fazer download do conhecimento” para uma base de dados, seja de uma pessoa específica ou de um coletivo de pessoas (por exemplo, os funcionários de uma empresa). Desta forma, a ideia é que poderia ser viável fazer “download de cérebros”, de modo que uma IA treinada possa acionar esta base e criar, com velocidade, materiais inéditos derivados das informações pregressas.

Criatividade amplificada
Ray Kurzweil, escritor e visionário de IA do Google, e Mike Bechtel, futurista-chefe na Deloitte, ecoam de maneiras diferentes um pensamento similar: a importância do interesse pessoal e da capacidade imaginativa. Para o primeiro, a evolução da IA nos levará potencialmente a um futuro em que o “talento” ou a capacidade de tornar uma ideia realidade será facilmente operacionalizada por uma máquina. Já Bechtel reforça a importância da imaginação e da criatividade para fazer solicitações realmente interessantes para as máquinas de IA. Afinal, elas têm capacidade de operacionalizar a criatividade e amplificar ideias, mas não necessariamente de imaginar algo inédito. Desta forma, se fizermos o pedido de algo “ruim”, é grande a chance de recebermos de volta um resultado ainda pior. Agora, caso façamos um pedido genial, a probabilidade é que recebamos algo ainda mais interessante de volta. 

PREOCUPAÇÃO

Viés e exclusão codificada
A pesquisadora Joy Buolamwini defendeu que a IA reflete o grupo que tem a tecnologia nas mãos. Com isso, ela reforça que, se os avanços tecnológicos não forem bem regulados, podem repetir preconceitos e exclusões existentes na realidade. O envolvimento de Buolamwini com o ativismo digital surgiu a partir da percepção de uma falha importante em um código de reconhecimento facial desenvolvido por ela mesma, que não era capaz de reconhecer rostos de pessoas negras. O resultado ficou evidente quando ela passou a ser reconhecida pela sua aplicação ao fazer uso de uma máscara branca. O episódio evoca um entendimento de que, por mais que se busque diversidade entre os desenvolvedores dos avanços tecnológicos, como a inclusão de mulheres e de pessoas negras, isso não impede que as bases de dados que treinam as tecnologias do futuro estejam por si só enviesadas e, portanto, não sejam suficientemente inclusivas. 

Bases incompletas fora do idioma inglês

Ainda que a América Latina esteja atenta aos desenvolvimentos de IA, a região lida com barreiras que desafiam a adoção de estratégias avançadas, segundo o empreendedor Marcellus Amadeus, único brasileiro a palestrar dentro da trilha de IA do SXSW. Dentre as questões elencadas, como baixo investimento em startups latinas e dificuldade de reter talentos especializados, salta aos olhos uma questão técnica: a falta ou a baixa qualidade de bases de dados em espanhol ou português. Considerando que os resultados de aplicações de IA são tão bons quanto as bases de dados a que têm acesso, a situação dos latino-americanos é desfavorável em relação às opções existentes em inglês. Tanto em bases textuais quanto de voz, o volume disponível nos principais idiomas latinos é baixo, o que impacta na eficiência dos modelos de IA para a região.

Desinformação produzida em massa

Preocupação relevante destacada pelo SXSW, especialmente em um ano de eleições nos Estados Unidos, tem a ver com a capacidade da IA de produzir informações inverídicas de modo massificado e barato. Steven Rosenbaum, cofundador do Sustainable Media Center, destacou que o entendimento do que é uma “verdade” pode ter nuances em campos específicos. “Se você vai a um médico e mostra a ele os resultados dos seus exames, ele vai te contar uma versão da verdade, considerando quem você é e qual o seu histórico médico. A forma de contar a informação é moderada pela interação humana que esse médico teve com você”, exemplificou. No entanto, Gary Marcus, professor emérito da New York University (NYU), reforçou que por mais que vejamos benefício em ter informações médicas apresentadas de maneira personalizada, talvez não seja ideal personalizar “verdades matemáticas” ou “verdades noticiosas”. Essas verdades deveriam ser as mesmas para todos os seres humanos.

Métodos para o uso responsável de IA
Considerando que o uso de IA em diferentes esferas da nossa vida será inevitável, a estudiosa Elizabeth Adams, que faz parte do Instituto para uma IA Focada em Humanos (HAI), de Stanford, sugere que as empresas discutam internamente propostas e processos para a criação de métodos para o uso responsável de IA, de acordo com princípios de uma metodologia responsável:

Sem viés | Inclusiva | Auditável | Confiável | Explicável | Imputável | Justa

Legislação e Código Aberto: tentativas de responsabilização da IA

Na reta final do SXSW 2024, o Parlamento Europeu aprovou uma legislação específica para a Inteligência Artificial pautada, principalmente, pela transparência na adoção e no uso da tecnologia. O fato, que já vinha sendo intensamente debatido desde 2021 pela União Europeia, não chegou a influenciar as discussões em torno do tema no evento, mas é um sinal de avanço. Entre os principais desafios em tornar a IA responsável pelos efeitos que ela vier a causar, colocam-se duas questões principais: falta de regulamentação e falta de transparência. 

Durante o festival, Calli Schroeder, conselheira global de privacidade da Electronic Privacy Information Center (EPIC), afirmou que União Europeia, Brasil, África do Sul, Índia e Austrália se destacam no cenário internacional por terem estabelecido fundamentos legais para lidar com o controle de privacidade de seus cidadãos. 

Nos Estados Unidos, ainda há uma forte discussão para a criação de uma legislação específica para a IA no país, que atue na interseção dos direitos civis norte-americanos e nos avanços da tecnologia. Já para lidar com a falta de transparência das ferramentas, Ion Stoica, professor de ciência da computação da Universidade da Califórnia, em Berkeley, sugeriu que sejam construídos modelos de IA de “código aberto”, seguindo a mesma premissa de “conhecimento aberto” utilizada em plataformas como Linux ou Wikipédia. Stoica esclarece que a segurança dos sistemas de IA de código fechado reside na obscuridade: as pessoas não sabem o código e, portanto, não sabem como explorá-lo de forma maliciosa. “Com o código aberto, as pessoas vão explorá-lo maliciosamente, mas a comunidade vai imediatamente fechar essa brecha de segurança. Dessa forma, no longo prazo, uma iniciativa de código aberto é muito mais segura”, explicou.