Sociedade Psicanalítica de Porto Alegre (SPPA)

ANO 22 • • Nº 42

ÓRGÃO OFICIAL DA SOCIEDADE PSICANALÍTICA DE PORTO ALEGRE

Porto Alegre | RS

Avanços, Limites e Ameaças da Inteligência Artificial

  • Atividade Científica “Ética e Chat GPT” contou com a participação do biólogo José Roberto Goldim (sentado), e da psicanalista Caroline Buzzatti Machado (sentada, à esquerda). Na foto, os convidados com a diretoria da SPPA

Desemprego, falta de privacidade, riscos de segurança, concentração de poder e perda da conexão humana são preocupações que sempre vinham à tona quando o assunto em debate era a Inteligência Artificial (IA). No entanto, o temor ganhou força no início deste ano, quando uma carta assinada por mais de mil pessoas e organizações, incluindo o empresário americano Elon Musk e o historiador Yuval Harari, alertava para os riscos que a IA podia trazer à sociedade. Afinal, será que a humanidade corre o risco de perder o controle sobre a sua vida? O tema foi debatido na Atividade Científica “Ética e Chat GPT”, realizada em agosto pela Sociedade Psicanalítica de Porto Alegre (SPPA), que contou com a participação do biólogo, doutor, professor e pesquisador de bioética da Universidade Federal do RS (Ufrgs), José Roberto Goldim, e da psicanalista da SPPA, Caroline Buzzatti Machado. Ambos foram convidados pelo Jornal da SPPA para abordar o assunto e trazer mais informações a fim de aprofundar as discussões sobre o futuro da Inteligência Artificial.

Para o professor José Roberto Goldim, a ameaça à democracia, que extrapola os termos da carta citada, é clara e real. Segundo ele, a disseminação de informações em grande escala e em velocidade crescente gera uma saturação de informações. Ele aponta Byung-Chul Han, filósofo coreano e catedrático da Universidade de Berlim, como o autor que tem melhor abordado a questão. “Ele criou o termo Infocracia para denominar este fenômeno. A seleção de informações gerada pelos algoritmos das redes sociais e dos sites de busca acaba por dar uma visão extremamente estreita da realidade. O contraditório fica quase que eliminado, existindo apenas a reiteração do que se sabe e se pensa. É a eliminação do desafio, do desconforto, pois apenas a mesma matriz de conhecimentos se repete. A discussão fica substituída pela simples repetição de ideias e noções, e a ausência de discussão gera uma perda de reflexão”, assinala.

O filósofo coreano também é citado por Caroline Buzzatti para falar sobre o poder soberano das mídias que detém a tecnologia da informação, gerando uma dominação sobre a nossa percepção, a nossa relação com o mundo e a nossa convivência. Ela lembra que, segundo Byung-Chul Han, estamos na era pós-factual, sem o compromisso com a realidade, apenas com o objetivo de entreter, engajar, chamar atenção. A psicanalista salienta que o excesso de informação nos embriaga. “Anteriormente, a informação chegava pelos livros, e os leitores eram os maiores detentores do conhecimento. Essa lógica mudou, hoje o excesso de informação por vezes nos emburrece e nos coloca na pós-verdade. A distinção entre ficção e realidade desaparece”, analisa.

A psicanalista destaca o risco das ferramentas de tecnologia, tais como o metaverso, os jogos eletrônicos e as IAs com seus diversos tipos de chats, tornarem-se grandes simulacros, criando uma realidade que não é real, afastando o indivíduo do seu próprio eu ao desenvolverem um mundo paralelo, distante e extremamente narcísico, capaz de gerar inverdades intencionais, um mundo de grande onipotência. “Há uma preocupação ética, no sentido dos programadores dessas ferramentas não gerarem vieses de informação, não direcionando a informação para questões ideológicas ou imorais, conforme visões que podem influenciar o pensamento de massa”, afirma, acrescentando ainda o risco das IAs compartilharem informações pessoais, o que representa um risco à privacidade, podendo ocorrer violações ou uso indevido desses dados, com graves consequências.

Saúde Mental – Para ambos os convidados, a Saúde Mental do sujeito comum está sendo afetada pelo excesso de uso indiscriminado das mídias e da IA, assim como pela avalanche acrítica de informações. “Os programas de jornalismo mudaram o seu foco informativo para passarem a ser um conjunto de comentários sobre um mesmo monótono tema de impacto. Passado o impacto, um novo tema é abordado e assim sucessivamente. A história não é mais contada, mas apenas comentada por um breve período de tempo. O foco deixou de ser informar, e sim gerar um impacto. Esta sucessão de impactos é que tem gerado uma certa apatia, uma perda da solidariedade, uma ausência da perspectiva empática e compassiva com o outro. Tudo é espetáculo, os outros são substituídos constantemente. Assim, as relações se tornam apenas ligações, sem comprometimento associado”, critica o pesquisador e professor de bioética.

“Estamos diante de uma tecnologia muito mais avançada, diante de Bots que conversam conosco e nos confundem, tamanha a similaridade da resposta do robô com o humano. Há pessoas extremamente vulneráveis, carentes, fronteiriças, sem falar nas crianças, que estão crescendo já em um mundo em que dialogar com um robô passa a ser normal ou, melhor dizendo, comum”, completa a psicanalista, acrescentando que “o uso excessivo prejudica a interação das relações entre as pessoas, levando os indivíduos à perda de interação com o outro e com o mundo, podendo surgir um prejuízo no discernimento de realidade”.

Impacto nas crianças – Caroline salienta que o impacto em relação às crianças pode ser grande, devido ao fato de que uma IA, hoje em dia, constrói textos, produz música, cria imagens e dialoga de maneira quase humana, tornando-se uma máquina bem atraente. “Se as crianças desde cedo passarem a usar essas máquinas para executar tarefas que elas não desenvolveram ainda, poderão atrofiar habilidades que devem ser executadas dia a dia para o crescimento e desenvolvimento físico, mental e cognitivo adequado”, afirma. Além disso, ela lembra que há a necessidade fundamental de interação e aprendizado na relação com o outro. “A substituição das relações pessoais pode levar à redução do crescimento e do desenvolvimento humano. Nós sabemos que, sem o outro, não há a construção da subjetividade”, pontua. A hiperestimulação sensorial também pode levar as crianças a estarem mais presas aos excessos provocados pela virtualidade, seja de imagem, de informação ou de conteúdo, o que direciona boa parte da percepção para os estímulos que vêm de fora, retirando da criança o espaço necessário para a criação e para a simbolização que vêm do mundo interno.

Importância do sonhar – Quando o assunto é criatividade e capacidade de sonhar, Caroline afirma que, dependendo do uso que se dá à Inteligência Artificial, ela pode ser uma ameaça. “Há inúmeras ferramentas de IA que estão a favor da criatividade, que ajudam a desenvolver projetos idealizados pelas pessoas e auxiliam muitos profissionais de diversas áreas a serem criativos. Dessa forma, a IA auxilia na execução de algo criado pelo ser humano. Entretanto, se, ao invés da IA ser uma ferramenta auxiliar na execução de um projeto sonhado, passar a ser usada como uma ferramenta que irá criar algo que o indivíduo não consegue executar, aí ela pode ameaçar a criatividade, ainda mais em crianças. Se uma criança, que mal sabe pegar no lápis, pede para um aplicativo criar um desenho, a criatividade dela está sendo ameaçada, pois está deixando de realizar uma tarefa que faz parte do desenvolvimento humano. É uma questão de sonhar, criar e buscar executar da sua maneira, com as habilidades que lhe cabem em cada etapa do seu desenvolvimento. As etapas de criar e executar, seja uma imagem ou uma escrita, não devem ser substituídas pelas máquinas”, adverte.

Inteligência Artificial – Os algoritmos podem ser programados e treinados para “expressarem” emoções, mas sabe-se que são conjuntos de processos previamente preparados para reagirem dessa maneira. Assim, jamais substituirão a necessidade que a criança tem de contato emocional com outro ser humano e consigo mesma para desenvolver o pensamento, a capacidade de sonhar e de ser criativa. “A IA nada mais é do que uma automatização dos processos de tomada de decisão”, alerta o professor Goldim, não sendo apropriada, portanto, para substituir a verdadeira tomada de decisão, que deve partir da mente humana.

Sobre o surgimento da expressão “Inteligência Artificial”, o professor Goldim conta que ela foi cunhada para substituir a palavra “cibernética” em uma atividade realizada no MIT/EUA na década de 1960. O pesquisador recorda que o uso da palavra “artificial” gerou a expectativa de um distanciamento ou de uma nova aproximação. “A provocação feita por Philip K. Dick quando escreveu a sua novela ‘Os andróides sonham com ovelhas elétricas?’ gerou o roteiro para o filme Blade Runner, de Ridley Scott. Esta oposição entre o natural e o artificial é desafiadora, e nem sempre tão simples de identificar”, salienta.

Já a psicanalista da SPPA questiona se há inteligência artificial, “pois a inteligência, com todos os seus atributos, não é apenas um aglomerado de algoritmos”. Caroline observa que, ao se falar em inteligência emocional, está se falando da capacidade de lidar com as próprias emoções. “Isso passa pela capacidade de se conhecer e entender melhor as emoções sentidas nas diversas vivências que temos durante a vida. Só quando estamos abertos a sentir e nos permitir penetrar pelas emoções é que o aproveitamento das inúmeras vivências fica mais pleno e, possivelmente, mais verdadeiro. A meu ver, a inteligência emocional é um caminho a ser buscado pelo indivíduo. Obviamente, ao falarmos disso, estamos falando que há diversos tipos de inteligência no ser humano. O questionável é se esse atributo humano, que é a inteligência, tão buscada por muitos de nós, pode ser referida a uma máquina”, assinala.

Subjetivação e espelhamento – Para os entrevistados, um dos pontos centrais e pouco abordado quando se trata de IA é a falta de discussão da alteridade, da relação efetiva com o outro. “Isso gera inúmeros problemas, agravados pelo uso de meios tecnológicos que podem distanciar ainda mais as pessoas. Entender que o outro é uma pessoa diferente, que uma interação efetiva gera corresponsabilidade, que a necessidade de cuidar do outro implica em cuidar de si mesmo, independe do uso de uma ferramenta, mas depende de um entendimento do que é viver, do que é se relacionar”, diz Roberto Goldim. Caroline, por sua vez, reconhece que os diversos recursos de uma IA geram encantamento e fascínio. “São ferramentas capazes de realizar tarefas que facilitam o dia a dia e reduzem o tempo gasto na sua execução, além do que, hoje em dia, muitos chats de conversa são extremamente avançados e geram uma interação quase humana. Isso tem feito com que pessoas substituam a interação com o outro pela interação com as máquinas”, reflete, lembrando que, sem a presença do outro, não há a construção da subjetividade. “Ao predominar a relação com a IA, aos poucos pode ir ocorrendo um desligamento do mundo real e a relação passa a se dar com esse mundo paralelo, desvinculando–se da intimidade com o outro. Com isso, abre-se ainda mais espaço para a cultura do narcisismo”, considera. “É necessário, para a construção da subjetividade e reconhecimento da realidade, a vivência de trocas afetivas e as interações de diversas maneiras que mobilizam os nossos sentidos, como toque, cheiro, modulações de tom e de expressão, além de outros aspectos que não ocorrem sem a presença do outro”, sugere a psicanalista da SPPA. “O impacto do uso excessivo das IAs em detrimento da interação das relações humanas acarreta um empobrecimento psíquico, podendo gerar um sujeito que funcionará de modo operatório, ou seja, alguém que evita as emoções reais e passa a ter diversos tipos de descargas somáticas. Nesses indivíduos, a estrutura psíquica carece da plasticidade suficiente para abarcar a totalidade de suas vivências, e até o reconhecimento da realidade fica prejudicado”, aponta.

Relação médico–paciente – Os entrevistados concordam que a IA pode beneficiar o desenvolvimento da medicina, mas a relação médico-paciente ainda está em discussão. “O risco é a despersonalização, a padronização, a perda da singularidade. O problema não é a inteligência artificial em si, mas o uso que se faz destas novas ferramentas”, diz o professor Goldim. “A tecnologia contribuiu para o acesso do paciente a médicos que estariam em localidades diferentes, mas isso é diferente de falar que a ferramenta da inteligência artificial beneficia a relação médico-paciente, pois esta relação é única, pessoal, carregada de aspectos técnicos e éticos”, acrescenta Caroline.

Regulamentação – O pesquisador em Bioética da Ufrgs explica que o uso de Inteligência Artificial tem gerado a necessidade de um novo marco regulatório que permita de alguma forma estabelecer parâmetros de adequação a estas atividades. Segundo ele, o Brasil vem discutindo um projeto de lei neste sentido, enquanto a Europa está elaborando um regulamento para estabelecer um uso minimamente adequado da Inteligência Artificial. “As leis atuais já permitem resolver muitas destas questões, mas novos temas se apresentam, como, por exemplo, a questão da responsabilidade sobre as ações geradas pelos algoritmos. Quem é o responsável? É o desenvolvedor, é quem vende, é quem utiliza? Esta questão pode ser exemplificada por uma situação já existente: o uso de algoritmos para a direção de automóveis. Se ocorrer um acidente causado por um destes sistemas de navegação, quem será o responsável?”, questiona Goldim. Caroline igualmente refere o Projeto de Lei n. 2.338/2023, chamado Marco regulatório das IAs, que corresponde a um relatório elaborado por juristas e alinhado com princípios adotados internacionalmente.