Módulo 4 | Aula 5 O uso da Inteligência Artificial generativa na redação científica
A Inteligência Artificial (IA) tem se tornado um tópico cada vez mais recorrente nas publicações científicas. Com o advento de grandes modelos de linguagem (LLM), como o Chat Generative Pre-trained Transformer (ChatGPT) e o Bard, essa questão ganhou destaque nas discussões de instituições de ensino e pesquisa. Muitos alunos e pesquisadores estão começando a integrar essas ferramentas em suas atividades acadêmicas, o que levanta uma série de preocupações éticas e metodológicas.
Um dos principais pontos de discussão envolve a originalidade e a integridade dos trabalhos científicos. O uso de IAs pode facilitar a geração de textos e a análise de dados, mas também pode levar à tentação de depender excessivamente dessas ferramentas, comprometendo a profundidade da pesquisa e a capacidade crítica dos autores. Além disso, há o risco de desinformação, uma vez que os modelos de IA podem produzir respostas que parecem plausíveis, mas carecem de rigor científico.
Outro aspecto relevante é a questão do plágio. Embora as IAs possam auxiliar na redação, a utilização inadequada dessas tecnologias pode resultar na reprodução involuntária de conteúdos existentes, dificultando a identificação de ideias originais. Por fim, a transparência na metodologia de pesquisa se torna crucial; é essencial que os pesquisadores deixem claro como e em que medida as ferramentas de IA foram empregadas em seus estudos, garantindo que o uso dessas tecnologias contribua positivamente para o avanço do conhecimento científico.
Nesse sentido, a figura abaixo ilustra os principais pontos de vantagem, bem como os potenciais danos do uso de IAs na pesquisa científica:
pan_tool_alt Clique nos botões para visualizar as informações.
Vantagens Potenciais
Com a entrada adequada do usuário, a IA conversacional (incluindo LLMs) pode compor textos rapidamente, aumentando a eficiência e reduzindo o tempo de publicação. Isso pode permitir que os pesquisadores se concentrem mais no desenho e na execução do estudo para aumentar sua produtividade e podem ser usados para melhorar o estilo da escrita.
Para autores que desejam publicar em periódico de um local de idioma não nativo, eles podem usar modelos de tradução automática e refinar o resultado com LLMs para aprimorar a fluência da comunicação, gramática e sintaxe a um custo insignificante.2
A IA de conversação pode ajudar a converter tópicos complexos em conceitos mais simples para enviar a conselhos de revisão institucionais (por exemplo, resumos leigos) ou projetar minutas de documentos de consentimento informado para pacientes.
Com informações adequadas, a tecnologia LLM pode realizar pesquisas bibliográficas em vários bancos de dados e idiomas. Uma vez identificadas as principais fontes, os LLMs podem gerar uma revisão preliminar da literatura relevante.
Usando o rascunho final de um artigo acadêmico, os LLMs podem criar a seção de resumo de um artigo.
A IA conversacional pode identificar possíveis limitações e barreiras antes de lançar um estudo de pesquisa. Isso pode ser usado para garantir que um estudo seja viável, bem como para abordar antecipadamente barreiras. Depois que um estudo é concluído, a IA conversacional pode ser usada para aumentar a robustez da seção de limitações do manuscrito.
A pesquisa acadêmica é frequentemente escrita em termos excessivamente técnicos, limitando a compreensão por não especialistas e por pessoas de fora da área (incluindo o público).
Danos Potenciais
Os LLMs são derivados por meio de algoritmos de aprendizado de máquina baseados em redes neurais e podem localizar e processar informações existentes de forma rápida e completa. No entanto, esses programas são limitados pelos dados que receberam e seus algoritmos de treinamento. Então, os LLMs podem não ser expostos a uma ampla gama de literatura (especialmente se os estudos estiverem em acessos pagos), o que pode limitar a abrangência ou precisão dos dados.
Como os LLMs não estiveram envolvidos com o projeto original do estudo, sua capacidade de interpretar os resultados é limitada apenas aos dados fornecidos. Isso pode levar a informações imprecisas, variando de desvios no relato dos métodos a uma interpretação totalmente errônea das descobertas e até mesmo à disseminação de informações incorretas.
Devido ao estilo de escrita convincente gerado pelos LLMs, os leitores podem perceber que as informações estão livres de incertezas. Em contraste, os autores humanos podem transmitir melhor as nuances em suas escolhas estilísticas.
Existe um risco significativo de violações éticas, incluindo violação de direitos autorais e plágio. Os LLMs utilizam informações existentes para informar seus algoritmos, o que aumenta o risco de replicar o texto usado em outro lugar.
Os pesquisadores podem ser tentados a confiar nos resultados gerados pelos LLMs sem verificação. Por exemplo, descobriu-se que alguns LLMs criam citações de referência plausíveis que não podem ser localizadas por meio de canais padrão. Como tal, os autores e revisores devem examinar de perto todas as informações geradas pelos LLMs.
Novas técnicas são necessárias para reduzir o preconceito no material gerado por IA. Os modelos de IA conterão as tendências das informações fornecidas durante a fase de treinamento. Como os LLMs são treinados a partir de uma seleção exaustiva de materiais digitais, a fase de aprendizagem é em grande parte não supervisionada e os preconceitos do mundo irão surgir.
Outras limitações foram sinalizadas por pesquisadores na Revista Nature Partner Journals Digital Medicine. Pesquisadores nos EUA avaliaram a habilidade de revisores em diferenciar entre resumos genuínos (originais) e resumos gerados pelo ChatGPT. Os resultados mostraram que, ao receber uma mistura de resumos originais e gerados pela IA, os revisores foram capazes de identificar:
- 68% dos resumos gerados pelo ChatGPT como tais;
- 86% dos artigos originais como genuínos;
- 32% dos resumos gerados artificialmente como se fossem originais;
- 14% dos resumos originais como gerados pela IA.
Além disso, os revisores confundiram alguns resumos originais com os gerados pela IA, o que sugere um alto nível de ceticismo durante a revisão.
Atualmente, identificar se um texto científico é genuíno ou gerado por uma IA é um desafio, e essa dificuldade não é suficiente para fundamentar alegações de plágio. Existem iniciativas, como a possibilidade de identificar conteúdos gerados por IA por um tipo de marca d´água para evitar o uso não referenciado dessa ferramenta.
Este tema tem gerado posicionamentos de alguns periódicos, afirmando que, em suas políticas, sistemas de IA não podem ser listados como autores e que, caso haja o uso, este deve ser transparente e informado no texto do artigo. Exemplificamos com as recomendações da World Association of Medical Editors (WAME), que trata sobre o assunto:
Podemos aproveitar a oportunidade para recordar que, de acordo com as normas de autoria do ICMJE, toda assistência de redação, edição técnica, edição de linguagem e revisão da versão final a ser submetida deve ser mencionada no artigo, especialmente quando realizada por empresas especializadas. Esta recomendação deve incluir a revisão ortográfica e gramatical de qualquer idioma realizada por editores de texto e pelo software.
O uso de IAs vem gerando intensa discussão sobre autoria em artigos científicos. Para saber mais, clique aqui.
Devemos também procurar entender a fundamentação linguística para o não reconhecimento da atividade desenvolvida por softwares como o ChatGPT como criação "autoral". Para tal, nada melhor que recorrermos ao linguista Noam Chomsky, que publicou uma avaliação como artigo de opinião no New York Times no dia 08 de março de 2023.
"[...]Por exemplo, uma criança pequena que está adquirindo uma linguagem está desenvolvendo — inconsciente, automática e rapidamente a partir de dados minúsculos — uma gramática, um sistema estupendamente sofisticado, de princípios e parâmetros lógicos. Essa gramática pode ser entendida como uma expressão do “sistema operacional” inato e geneticamente instalado que confere ao ser humano a capacidade de gerar frases complexas e longas cadeias de pensamento. Quando os linguistas buscam desenvolver uma teoria sobre por que uma determinada língua funciona como funciona (“Por que essas — mas não aquelas — frases são consideradas gramaticais?”), eles estão construindo consciente e laboriosamente uma versão explícita da gramática que a criança constrói instintivamente e com exposição mínima à informação. O sistema operacional da criança é completamente diferente daquele de um programa de aprendizado de máquina.” [...] “Observe, apesar de todo o pensamento e linguagem aparentemente sofisticados, há indiferença moral nascida da falta de inteligência. Aqui, o ChatGPT exibe algo como a banalidade do mal: plágio, apatia e obviação.” [...]Resumindo, o ChatGPT e seus irmãos são incapazes de equilibrar criatividade com restrição. Eles ou ampliam (produzindo verdades e falsidades, endossando decisões éticas e antiéticas igualmente) ou reduzem (exibindo descompromisso com quaisquer decisões e indiferença com as consequências). Dada a amoralidade, falsa ciência e incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua popularidade.” (Tradução livre).
CHOMSKY (2023)