Foto: Pixabay/cc
O mundo volta os olhos aos avanços da Inteligência Artificial (IA). Enquanto empresas correm para desenvolver e oferecer aplicativos mais avançados, pesquisadores se debruçam sobre o tema. Os impactos são diversos e complexos. Entre eles, destaque para as influências no mundo do trabalho e também na educação. O meio acadêmico está mobilizado para entender o impacto nas atividades intelectuais, desde possíveis avanços a problemas, como o uso da IA para a realização de trabalhos e provas.
O sociólogo Glauco Arbix, professor do Departamento de Sociologia da Universidade de São Paulo (USP), defende que é preciso cautela. O aplicativo que vem se destacando neste universo é o ChatGPT. Um programa capaz de mimetizar a linguagem humana por meio do aprendizado de máquina. Na prática, é possível dialogar e solicitar tarefas intelectuais complexas à máquina. “Tem jeito, cheiro e cara de humano. Mas é preciso tomar cuidado com as desinformações”, avalia Arbix.
- Arte antecipa intrusão da inteligência artificial na vida. Confira dicas da… inteligência artificial
- Ocidente tenta frear TikTok e impedir avanço de aplicativos chineses
Campo de estudos
Arbix concedeu entrevista nessa sexta-feira (17) para o jornalista Rafael Garcia, da Rádio Brasil Atual. E na próxima terça-feira (21), ele participa de um evento sobre o tema no Instituto de Estudos Avançados da USP. “A comunidade vai discutir toda a parte de pesquisa, professores, alunos vão discutir essa nova ferramenta, que está causando sensação em todo mundo, surpresas agradáveis e desagradáveis de todo tipo, que se chama ChatGPT”, afirma.
Um dos problemas relatados pelo estudioso é a ausência de parâmetros transparentes. “Porque, como todo o sistema de aprendizagem de máquina, ele não é transparente. São milhares e milhares daquilo que são chamados redes neurais, de pontos de conexões. Ninguém tem controle exatamente para saber como é que ele decide as palavras e os testes”, conclui.
Medo e encanto
Existe um certo temor social em relação à IA. A ficção científica trata do tema ao menos desde a década de 1950, em larga escala. A RBA, inclusive, fez um apanhado sobre o tema em outra matéria. Contudo, é importante dizer que a IA moderna como conhecemos não avança, ao menos por enquanto, sobre questões especialmente humanas, como autoconsciência, humor, entre outras. Dito isso, a IA avançou de forma “muito poderosa” nos últimos anos, como explica Arbix.
“Ela causa apreensão. As pessoas têm medo, justamente pela instabilidade que essas tecnologias podem provocar na vida delas. Não falamos de muita coisa nova neste ponto de vista. Quando a eletricidade se espalhou foi a mesma coisa, a internet. Se quisermos voltar mais no tempo, o livro também. Universidades chegaram a proibir o livro, porque achavam, com a prensa de Gutemberg, que estavam colocando conhecimento em mãos não preparadas”, completa.
Capacidade
O ChatGPT é formulado pela empresa OpenAI. O destaque não é à toa. De fato, é uma ferramenta muito poderosa. “Impressiona. Ele é uma plataforma muito amigável, você faz perguntas por escrito. Ele conversa em mais de 100 línguas”, afirma Arbix. Entretanto, existem limitações. “Muitas vezes ele apresenta resposta afetiva. Mas quero alertar que não tratamos com humanos. É uma máquina. A resposta afetiva vem da capacidade que o software tem de calcular a próxima palavra. Ele encadeia palavras sequencialmente, isso forma as sentenças. É muito capaz, coerente, não erra coisas pequenas como nós”, diz.
Essa característica implica em questões éticas. Por ele não ser humano, “muitas vezes não há compromisso com a verdade. Como ele encadeia palavras, a ideia de ter uma relação com fatos não está ligada à preocupação dele. Se você perguntar lá ‘o que é a Rede Brasil Atual?’ Ele vai falar que é uma emissora, rádio, que tem jornalistas. Mas, de repente, ele pode falar que é de propriedade de outra empresa. E da onde saiu isso? Saiu de um banco de dados gigantesco, milhões de parâmetros que não sabemos muito bem como ele escolhe as palavras. São processos nem sempre transparentes”, critica.