A inteligência artificial vem avançando e mostrando sua pluralidade para auxiliar às pessoas em tarefas cotidianas. Entretanto, nos últimos tempos, a tecnologia rompeu a barreira de ser apenas uma “ajudante” para se tornar protagonista em atividades que antes só poderiam ser realizadas por humanos. A rápida ascensão de ferramentas como ChatGPT é uma delas e traz consigo os sérios dilemas sobre o uso indiscriminado.
Leia também: Inteligência artificial pode prever crimes antes que aconteçam
E dado que ainda não há legislação para lidar com tais aparatos, suas limitações ainda não são bem compreendidas.
A popularização do ChatGPT chegou às salas de aula de escolas de ensino fundamental e médio causando “temor ao corpo docente“, como relata reportagem do New York Times. Professores e administradores tentam discernir se os alunos estão usando o chatbot para fazer trabalhos escolares.
Algumas escolas públicas na cidade de Nova York e Seattle proibiram a ferramenta nas redes e dispositivos Wi-Fi da escola para evitar trapaças, embora os alunos possam encontrar facilmente alternativas para usar o chatbot.
Numa batalha em tempo real com a nova onda tecnológica, professores universitários nos Estados Unidos, chefes de departamento e administradores começam a reformar as salas de aula em resposta ao ChatGPT, provocando mudanças no ensino e na forma de medir a aprendizagem.
Alguns professores reformularam completamente seus cursos, com mais exames orais, trabalhos em grupo e avaliações manuscritas em vez de digitadas. Mas há quem relute em proibir a ferramenta porque não quer “infringir a liberdade acadêmica“.
Outros também defendem que lutar contra a plataforma é “perda de tempo” e seria mais viável entender os benefícios do robô. “Não vai adiantar proibir, é o cenário para o futuro. Primeiro, precisamos conhecer o ChatGPT e entender que ele não é um oráculo: tem limitações e pontos positivos. A partir disso, vamos adaptar a forma de ensinar e de avaliar [as turmas]”, explica Diogo Cortiz, professor de tecnologia da PUC-SP.
Também xistem professores que afirmam que a ferramenta pode muito bem auxiliar na educação, até mesmo incorporada ao ensino na sala de aula. Por exemplo, usada como ponto de partida para os alunos quando eles enfrentam um bloqueio de escrita, para obter exemplos de como uma resposta deve ser, reforçando o uso de citações em trabalhos acadêmicos.
Também poderia incentivar a realização de pesquisas e verificações de fatos. Quanto ao corpo docente, bastaria manter seu currículo atualizado e se colocar aberto às novas tecnologias.
Riscos de desinformação no ChatGPT
Não é só no campo educacional que esses programas levantam preocupações. O sistema baseado em IA generativa pode criar falsas associações que culminem em desinformação para os usuários.
Outro problema é a diferença de resultados que a plataforma pode gerar a depender da quantidade e da natureza dos dados imputados em sua base de dados.
“A IA tem que ser treinada a partir de dados confiáveis. Sabemos que hoje em dia existe uma grande quantidade de fake news dispersas na internet. Se o mecanismo for treinado com base em conteúdo falso, ele irá replicar e amplificar esse tipo de conteúdo”, alerta Walter Hildebrandi, diretor de Tecnologia da Zendesk para a América Latina.
Christian Perrone, gerente de Direito e Tecnologia e GovTech do Instituto de Tecnologia e Sociedade (ITS), destaca o potencial excludente que os padrões estabelecidos pelos chatbots baseado em IA podem trazer:
“Que respostas vai dar uma IA com relação a perguntas filosóficas, como ‘qual o sentido da vida?’ Isso tem impactos éticos e na nossa capacidade cognitiva. Se eu perguntar a um buscador, vou receber milhares de versões e links relacionados. Se perguntar ao ChatGPT, virá uma única resposta. Isso diminui a vertente cognitiva das pessoas. Qualquer lei que surja deve pensar nos potenciais riscos”, declara.
Uso do ChatGTP pode ser regulado na UE
Em resposta a algumas dessas questões, a OpenAI — laboratório estadunidense responsável pelo ChatGTP —, publicou trechos de um relatório feito por pesquisadores da empresa em conjunto com o Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown e o Observatório da Internet de Stanford.
A pesquisa chegou à conclusão de que modelos de linguagem podem ser usados de forma indevida para fins de desinformação, com criação de “textos convincentes e enganosos para uso em operações de influência”.
Aos poucos, reguladores e tribunais devem estabelecer limites para a IA. A Comissão Europeia iniciou uma força-tarefa para elaborar uma regulação sobre inteligência artificial (AI Act) para garantir o uso por empresas e consumidores de forma ética e segura.
A proposta prevê que as empresas envolvidas com essas tecnologias, especialmente as que integram a inteligência artificial de alto risco, devem esclarecer o funcionamento de seus sistemas. O objetivo é garantir segurança jurídica, transparência e confiança e permitir o desenvolvimento de um mercado saudável.