IA Generativa: vida assistida por computação

Tema transversal do SXSW 2023, inteligência artificial generativa materializa ideia de termos cada vez mais suportes digitais inteligentes, nas mais diversas áreas de nossas vidas

Não foi apenas por conta do sucesso do ChatGPT que a inteligência artificial foi o tema transversal do SXSW 2023. É importante ampliar as lentes para o campo da IA generativa, que materializa irrevogavelmente a ideia de termos uma vida assistida por inteligências computacionais.

Apesar da popularização recente, as IAs generativas têm sido desenvolvidas por cientistas já há algum tempo, em uma tentativa de “imitar” o funcionamento do cérebro humano. A intenção era permitir que um algoritmo fosse capaz de acionar e combinar diferentes pontos de informação – chamados de “nós” – para gerar um resultado. 

Foi assim que foram criadas as “redes neurais”, modelos de aprendizagem de máquina que se inspiram na estrutura e função do cérebro humano de modo a interconectar nós de informação, processá-los e compartilhá-los de maneira compreensiva em um resultado que seja útil – assim como é o nosso pensamento.

Essa capacidade de conexão de pontos e geração de informações compreensíveis, ainda que, em alguns casos, de modo superficial ou com falhas, é o que está por trás das IAs mais faladas do momento – como ChatGPTMidjourney ou Stable Difusion –, que têm causado surpresa por apresentar alguns resultados bem satisfatórios. 

Satisfatórios o suficiente, inclusive, para alavancar a discussão sobre o receio da automação de profissões criativas. O risco, contudo, não parece ser tanto o de que humanos sejam totalmente substituídos por máquinas, mas, sim, substituídos por outros humanos que estejam sendo bem assistidos por essas novas IAs. 

“É o fim da internet como a conhecemos. A  inteligência artificial vai interagir com absolutamente tudo ao nosso redor, buscando informações e dando assistência a diversas atividades”
Amy Webb, CEO do Future Today Institute

Crédito: Getty Images for SXSW/Divulgação

A futurista Amy Webb, fundadora e CEO do Future Today Institute, defende que essa maior presença das IAs poderá levar ao crescimento do que ela chamou de trabalhos “assistidos por computação”. Da mesma maneira que cálculos complexos hoje são feitos por calculadoras ou computadores, talvez o futuro envolva o uso de IAs generativas como “assistentes digitais inteligentes”. Ela chamou de IAsmose esse entendimento de que tudo será permeado por AI.

Nas palavras de Kevin Kelly, fundador da revista Wired, seria como se cada um de nós ganhasse um estagiário que conseguisse fazer algumas das nossas funções de forma mais veloz, liberando nosso tempo e nossa capacidade cognitiva para lidar com atividades que as máquinas ainda não são capazes de fazer.

E quais atividades seriam essas?

Uma delas é a capacidade de gerar comandos (prompts) com metas, objetivos e valores morais claros para que as IAs possam trabalhar. Esse “valor de entrada” (input), que estabelecemos como usuários dessas IAs, fazem toda a diferença para o tipo de resultado que teremos na saída (output).

Pedir para que uma IA faça uma estratégia de negócio, por exemplo, é bem diferente de solicitar que seja feita uma tabela de uma análise PESTLE de um caso específico, considerando uma determinada situação. Escrever bons comandos para a IA é um trabalho que exige uma certa especialidade e conhecimento técnico. Talvez, inclusive, se torne uma nova profissão: Prompt Writer Engineer.

Da mesma forma, a confirmação dos resultados gerados pela IA generativa também precisa passar pelos olhos críticos de um ser humano, preferencialmente um expert no assunto. Como o papel da IA é conectar pontos e gerar um resultado minimamente satisfatório, nem sempre ela faz isso com fatos, com informações verídicas ou que fazem sentido quando justapostas. Quem sabe vem aí o AI fact checker?

Nesse momento, o principal desafio associado a essa tendência da vida assistida por computação parece ser determinar quando o uso das IAs é benéfico e quais os riscos envolvidos. Além disso, está claro que será sempre um ser humano quem tomará decisões importantes no manejo dessa tecnologia – o que vai desde a construção das bases das IAs, com o uso de dados confiáveis e não enviesados, até a definição do objetivo inicial, seu conjunto de valores, metas e especificidades, bem como a avaliação e verificação do resultado final, de modo a garantir que cumpra o objetivo esperado.

Faz sentido ter “medo”?

Recentemente, especialistas em IA lançaram uma carta defendendo uma pausa no desenvolvimento de pesquisas e experiências com inteligência artificial potentes como o ChatGPT-4, mais recente modelo da OpenAI. Eles alegam que, no momento atual, há mais riscos do que benefícios envolvidos. Entre as assinaturas está a do empresário Elon Musk, a do historiador Yuval Noah Harari e a do cofundador da Apple Steve Wozniak. Não demorou para que surgissem reações negativas à proposta, como as de Flavio Calmon, professor de engenharia elétrica da Universidade de Harvard; Luiz André Barroso, engenheiro do Google, e Marcus Fontoura, CTO da Stone. 

Em resumo, o que está posto é que há riscos, sim, mas interromper esse processo não é o caminho. O que se precisa é de mais responsabilidade. Há uma série de maus usos da IA que podem acontecer, além de que ainda é preciso fazer vários ajustes no desenvolvimento da tecnologia e nas suas regulações. 

“Não tenho medo da inteligência artificial. Tenho medo do que as pessoas estão tentando fazer com isso. Minha preocupação é como elas são programadas. E o único jeito de reagir a isso é mantendo nossa humanidade. Nossa defesa é aumentar nosso nível de conexão humana”
Douglas Rushkoff, escritor e pesquisador da autonomia humana na era digital

Douglas Rushkoff. Crédito: Madeline Maher/Divulgação

As empresas que desenvolvem inteligências artificiais generativas deveriam ser mais transparentes com os processos de treinamentos de suas IAs, de modo a evitar o uso de bases enviesadas (que seguem presentes) e pensando em como esse tipo de nova tecnologia pode potencializar o futuro que gostaríamos de viver. 

Para não sermos soterrados por informações, vigiados por IAs e aposentados forçadamente, é nossa, enquanto sociedade, a responsabilidade de garantir que essas tecnologias sejam desenvolvidas visando o bem comum e de forma ética. 

Os seres humanos poderão fazer isso de diferentes maneiras – seja pelo preparo individual para lidar com essa novidade, seja pela educação que daremos às crianças e aos trabalhadores que precisarão ser capacitados para lidar com esse novo futuro; seja por meio de pressão dos consumidores frente às desenvolvedoras das IAs, seja pelas regulações que vamos colocar em funcionamento. Dá medo, mas também dá protagonismo. 

Confiar desconfiando

Desde que deixou de ser uma empresa sem fins lucrativos, em 2019, a OpenAI captou investimentos bilionários que escalaram seu desenvolvimento de maneiras inéditas. O cofundador Greg Brockman jura que os princípios e a missão se mantêm, mas há quem perceba a empresa menos “aberta”. Governança à parte, sua interface mais famosa, o ChatGPT, conquistou em apenas cinco dias seu primeiro milhão de usuários, o que indica que Brockman pode ter razão quando diz que “todos os aspectos da vida serão amplificados por essa tecnologia”.

A aposta dele? As IAs serão nosso “auxílio cognitivo”. Mas e os problemas com direitos autorais ou fake news? Para Brockman, é preciso “entender onde a IA não é confiável e colocar limites”, mas o próprio uso da ferramenta ajuda a entender riscos e benefícios. Nesse meio tempo, ele sugere que não deveríamos confiar em nada do que lemos por aí. Inclusive o que vem do ChatGPT.

“Sempre falaram que a inteligência artificial automatizaria o trabalho físico, mas vemos muitos avanços em como ela dá suporte ao esforço cognitivo humano”
Greg Brockman, cofundador da OpenAI

Greg Brockman. Crédito: Getty Images for SXSW / Divulgação

A ameaça da intimidade artificial

Em 2023, a psicoterapeuta Esther Perel ficou sabendo de algo curioso: tinham transformado suas participações em podcasts em uma IA capaz de simular suas respostas. Seria a “Esther IA” uma terapeuta melhor que a original? Provavelmente sim, já que não seria afetada por problemas pessoais ou impactos de uma sessão anterior. Só que essa “Esther IA” não tinha emoção, memórias ou percepções que só a original poderia ter.

Viver uma “vida assistida” por IAs desse tipo, que são roteirizadas, sem subjetividade, e que criam o que ela chamou de “intimidades artificiais”, pode remover desconfortos e reduzir as amplitudes emocionais que geram aprendizados e intimidades reais – e isso acaba sendo algo negativo. “Sentir medo e arriscar-se são algumas formas de aprender o que somos e o que não somos”, destaca Perel. IAs, afinal, não darão conta de dilemas morais, nem entendem que decisões trazem consequências. Isso ainda é algo demasiadamente humano.