Recentemente muito se ouve falar sobre inteligência artificial (IA) e as maravilhas que esta tecnologia pode trazer para a sociedade. De fato, ao se analisar novas tecnologias a tendência da maior parte das pessoas é enxergar, no primeiro momento, as coisas boas que elas nos apresentam.

As novas tecnologias de IA, como Chat Gpt, Bard do Google, Copilot da Microsoft, e até mesmo o deep fake, quando bem utilizados, nos permitem chegar a soluções até então inimagináveis. Ao ver campanhas de marketing, como da Volkswagen usando deep fake, uso da IA para auxílio de escrita de textos, montar apresentações, criar dashboards de análises de resultados estratégicos para as empresas, deixa a todos entusiasmados ao perceber onde se pode chegar com o uso correto de todas essas inovações.

Mas é preciso nesse momento fazer um contraponto em relação ao uso indiscriminado desse novo mundo. Assim como várias outras tecnologias, que na época eram inovadoras e foram usadas para outros fins, tudo isso, infelizmente, também poderá ser usado por pessoas que tenham objetivos “duvidosos”, para não usar palavras mais fortes. 

Ao se falar em proteção e privacidade de informações (dados), é necessário pensar que essas ferramentas, ao buscarem informações para seus bancos de dados, podem coletar informações que estão disponíveis na web, por exemplo, mas que não tem a permissão de uso por parte de seus proprietários. Ademais, é preciso entender que o uso dessas ferramentas traz com elas a necessidade de uma maior massa crítica daqueles que as usarão. Ou seja, não basta fazer uma pergunta ao Chat Gpt e esperar que ele me dê sempre a melhor resposta, ou uma resposta que seja uma verdade absoluta.

Aí mora o maior perigo! É possível verificar nas escolas, faculdades, universidades, alunos que, hoje, para realizarem seus trabalhos, até mesmo TCC (trabalhos de conclusão de curso) em cursos superiores, recorrem a ferramentas dessas para gerar textos de assunto que, para eles, é desconhecido. É importante salientar aqui que não existe um crítica no uso da ferramenta, mas na crença de que o texto ali escrito é verdade absoluta. Ou seja, não há busca da fonte, análise crítica do contexto, busca de contrapontos, avaliações mais aprofundadas para que se publique algo que recebeu de forma muito facilitada.  

Já existem estudos que apontam para diversos problemas que a IA pode trazer para sociedade, caso não se analise resultados de forma mais crítica. Vicent (2023) enumera alguns dos problemas que a IA poderá trazer, a saber:

  • Geração de besteiras: A tecnologia que sustenta esses sistemas – modelos de linguagem grandes, ou LLMs – é conhecida por gerar besteiras. Esses erros (de Bing, Bard e outros chatbots) vão desde inventar dados biográficos e fabricar trabalhos acadêmicos
  • Problema com resposta única: Há uma grande tendência dos mecanismos de busca e fornecer respostas únicas e definitivas. “A introdução de interfaces de chatbot tem o potencial de exacerbar esse problema. Os chatbots não apenas tendem a oferecer respostas singulares, mas também sua autoridade é aprimorada pela mística da IA – suas respostas coletadas de várias fontes, muitas vezes sem atribuição adequada”.até não responder a perguntas básicas como “o que é mais pesado, 10kg de ferro ou 10kg de algodão?
  • Jailbreaking de IA: “há um conjunto de pessoas que tentará “quebrar” os chatbots para gerar conteúdo prejudicial.
  • Vem aí guerras culturais de IA: “Esse problema decorre dos anteriores, mas merece sua própria categoria devido ao potencial de atiçar a ira política e as repercussões regulatórias. A questão é que, uma vez que você tem uma ferramenta que fala ex cathedra sobre uma variedade de tópicos delicados, você vai irritar as pessoas quando ela não diz o que elas querem ouvir, e elas vão culpar a empresa”.
  • Novos custos e novos mecanismos (computação): “É difícil definir números exatos, mas todos concordam que executar um chatbot de IA custa mais do que um mecanismo de pesquisa tradicional.”
  • Regulamentação: “Não há dúvida de que a tecnologia está avançando rapidamente, mas os legisladores vão alcançá-la? O problema deles, se houver, será saber o que investigar primeiro, já que os mecanismos de pesquisa de IA e os chatbots parecem estar potencialmente violando os regulamentos à esquerda, à direita e ao centro”.
  • O Fim da Web como a conhecemos?: “O problema mais amplo nesta lista, porém, não está nos próprios produtos de IA, mas sim no efeito que eles podem ter na web mais ampla. Nos termos mais simples: os mecanismos de pesquisa de IA extraem respostas de sites. Se eles não enviarem tráfego de volta para esses sites, perderão receita com anúncios. Se eles perderem receita publicitária, esses sites murcham e morrem. E se eles morrerem, não haverá novas informações para alimentar a IA.

Ademais, já se tem notícias de empresas que tiveram dados vazados por mal uso, por parte de seus colaboradores, de ferramentas como Chat Gpt. E não se fala aqui de usuários comuns, mas de engenheiros que não o usaram de forma correta.

É de extrema importância uma reflexão hoje visando o uso correto dessas inovações. O problema está na tecnologia?

As evidências acima mostram que não. O mundo dedicou os últimos anos estudando e desenvolvendo a Inteligência artificial; é preciso dedicar os próximos no desenvolvimento da inteligência natural (humana). Criar e/ou treinar pessoas com pensamento crítico, capacidade de avaliação, analisar riscos, calcular impactos. Caso contrário será desenvolvida uma sociedade de robôs humanoides, que irão simplesmente replicar o que lhes é passado. Criando com isso problemas sérios como vistos anteriormente. 

Segundo Cláudio Moura e Castro, “”aprender a pensar” é uma das tarefas mais nobres e mais árduas da escola. Mas, ao contrário do que almas ingênuas poderiam imaginar, não se aprende a pensar em cursos do tipo “Como pensar”. Aprende-se pensando sobre assuntos que se prestam para tais exercícios. E, entre eles, as ciências oferecem um campo excepcional. O método impõe a disciplina de formular as perguntas de maneira rigorosa e sem ambiguidades. Em seguida, propõe e fiscaliza um plano de ação para verificar se as hipóteses para responder às perguntas, de fato, descrevem o mundo real. Sem essa disciplina para escoimar de imprecisões e equívocos a busca científica das respostas, não poderíamos ter confiança nos resultados”.

Esse é o novo desafio da sociedade da informação. E ainda vem a pergunta mais dita nesses momentos: E a segurança? E a privacidade?

Pois é, se já existem problemas suficientes como visto acima, essas ferramentas, caso sejam utilizadas ao bel prazer do seu usuário, sem essa análise crítica, irá proteger informações sigilosas, dados pessoais e/ou respeitar privacidade de terceiros? Certamente que não! 

Que comecem os estudos!

Autor: Cláudio Pessoa