A empresa americana de investigação em inteligência artificial ((AI) sigla utilizada no inglês para artificial intelligence) OpenAI lançou recentemente o chat GPT “transformador generativo pré-treinado (ChatGPT), versão 2.3, uma ferramenta de processamento de linguagem programada para interagir com humanos cujos objetivos passam por responder a perguntas, questionar e contestar respostas ou falas inapropriadas, e assim imitar conversas naturais” (Flanagin et al., 2023). Adicionalmente, o ChatGPT é capaz de produzir textos com conteúdo científico de forma coerente; no entanto, por se tratar de um processo relativamente novo, há preocupações quanto à exatidão e integridade do texto (Gao et al., 2022).
Segundo Gão et al. (2022), uma das limitações do ChatGPT em criar resumos científicos está ligada à baixa capacidade do modelo em respeitar o padrão de formatação definido pelas revistas científicas. Por exemplo, os autores descrevem que num universo de 50 resumos criados pelo ChatGPT, apenas 8% dos resumos avaliados seguiram corretamente os requisitos específicos de formatação solicitados pelas revistas. Uma segunda desvantagem descoberta pelos investigadores é que os resumos do ChatGPT apresentam a mesma estrutura de redação como se fossem preparados usando fórmulas matemáticas. No sentido oposto, entre as vantagens na utilização do ChatGPT está a capacidade do modelo em gerar resumos 100% originais que podem ser validados por ferramentas de deteção de plágio.
Segundo Stokel-Walker (2023), a revista Nature publicou dois preprints e duas publicações no campo da ciência e da saúde em janeiro de 2023, tendo o ChatGPT como um dos autores dos artigos. A utilização do ChatGPT na escrita de artigos científicos gerou debate entre editores e investigadores, particularmente sobre até que ponto o bot deve ser citado como autor. A problemática surge porque alguns editores dizem que o ChatGPT, ou qualquer outra forma de AI não humana, modelos de linguagem, máquina aprendizagem ou tecnologias semelhantes não podem ser citados como autores, pois não podem ser responsabilizados pelo conteúdo e pela confiabilidade da informação produzida durante a criação de um artigo científico (Flanagin et al., 2023).
Nesse sentido, é fundamental analisar como o avanço das tecnologias consideradas transformadoras e disruptivas que utilizam modelos de linguagem baseados em AI, atuarão no campo científico, seja por fornecer oportunidades, ou mesmo perigos, na criação do processo científico (Flanagin et al., 2023). Considera-se que a AI poderá ser utilizada e identificada em diferentes partes do texto e na lista de autores (Stokel-Walker, 2023). Por outro lado, de acordo com Flanagin et al. (2023), os investigadores que utilizem AI durante a redação ou preparação de um artigo devem aceitar a responsabilidade pelas informações criadas por essas tecnologias.
Portanto, espera-se que os investigadores que desejam utilizar ferramentas baseadas na AI ou tecnologias comparáveis durante a criação de um texto científico deverão declarar claramente seu uso, incluindo o modelo de linguagem usado para produzir ou para auxiliar na redação ou edição de manuscritos (Flanagin et al., 2023).
No momento atual, o uso de AI na geração de textos científicos não está especificado,
logo, a falta de restrições e de diretrizes responsáveis por regulamentar o uso dessa tecnologia para auxiliar na criação de conteúdo científico geram alguma apreensão.
Adicionalmente, os fatos descritos acima também levantam questões de cunho ético. Por exemplo, discute-se se o futuro nos permitirá gerar artigos de revisão científica com informações confiáveis em áreas como saúde humana e saúde ambiental, entre outras áreas, através da utilização da AI; ou se o uso de AI na geração de artigos científicos terá um impacto negativo direto sobre os investigadores. Portanto, o uso de IA na escrita científica ainda é um assunto relativamente novo, sobre o qual será necessário discutir os limites éticos e admissíveis (Gao et al., 2022).
Referências
Flanagin, A., Bibbins-Domingo, K., Berkwits, M., & Christiansen, S. L. (2023). Nonhuman
“Authors” and Implications for the Integrity of Scientific Publication and Medical Knowledge.
JAMA. https://doi.org/10.1001/jama.2023.1344
Gao, C. A., Howard, F. M., Markov, N. S., Dyer, E. C., Ramesh, S., Luo, Y., & Pearson, A. T. (2022).
Comparing scientific abstracts generated by ChatGPT to original abstracts using an artificial
intelligence output detector, plagiarism detector, and blinded human reviewers.
https://doi.org/10.1101/2022.12.23.521610v1
Stokel-Walker, C. (2023). ChatGPT listed as author on research papers: many scientists
disapprove. Nature, 613(7945), 620–621. https://doi.org/10.1038/d41586-023-00107-z
Foto de capa: Domínio público, por Pixabay.