Inteligência artificial e automação na pesquisa científica: uma proposta de agente computacional para apoio à revisão da literatura

Artificial intelligence and automation in scientific research: a proposal for a computational agent to support literature review

Tipo Artigo
Ano 2025
Periódico Revista Digital de Biblioteconomia e Ciência da Informação

Resumo

Introdução: O crescimento do volume de publicações científicas na área da Ciência da Informação tem intensificado a demanda por ferramentas automatizadas que apoiem processos de revisão da literatura. Nesse contexto, agentes de inteligência artificial (IA) baseados em modelos de linguagem de larga escala (LLMs) despontam como soluções promissoras para auxiliar na leitura e extração de informações de textos acadêmicos.

Objetivo: Este estudo tem como objetivo propor e avaliar a utilização de um agente de IA criado pelos autores para a análise semiautomatizada de artigos científicos, com foco na identificação de elementos estruturais como objetivos, lacunas de pesquisa, metodologias, resultados e perspectivas futuras.

Metodologia: Trata-se de uma pesquisa aplicada, de abordagem qualitativa, com delineamento exploratório e técnica de estudo de caso instrumental. Foi implementada uma arquitetura computacional com as bibliotecas CrewAI, langchain_openai e PyPDFLoader, permitindo a leitura autônoma de arquivos PDF e a extração sistemática de informações analíticas. Os dados foram estruturados em formato YAML, assegurando padronização e facilitando a análise posterior.

Resultados: O agente identificou corretamente os elementos estruturais dos artigos e produziu resumos compatíveis com interpretações humanas em grande parte das dimensões analisadas. No entanto, apresentou limitações em profundidade analítica e contextualização, reforçando a necessidade de mediação humana.

Conclusão: O estudo demonstra que agentes de IA podem apoiar revisões sistemáticas ao automatizar etapas iniciais de análise. Todavia, sua aplicação deve ser acompanhada por supervisão qualificada, garantindo o rigor epistemológico das interpretações científicas. O modelo proposto representa um ponto de partida promissor para a integração da IA nos fluxos de trabalho da pesquisa acadêmica.

Palavras-chave: Inteligência artificial Ciência da informação Modelos de linguagem Análise automatizada de textos Revisão sistemática da literatura

Abstract

Introduction: The growing volume of scientific publications in the field of Information Science has increased the demand for automated tools to support literature review processes. In this context, artificial intelligence (AI) agents based on large language models (LLMs) emerge as promising solutions to assist in reading and extracting information from academic texts.

Objective: This study aims to propose and evaluate the use of an AI agent created by the authors for the semi-automated analysis of scientific articles, focusing on the identification of structural elements such as objectives, research gaps, methodologies, results, and future perspectives.

Methodology: This is an applied research study, with a qualitative approach, exploratory design, and instrumental case study technique. A computational architecture was implemented using the libraries CrewAI, langchain_openai, and PyPDFLoader, allowing for autonomous reading of PDF files and systematic extraction of analytical information. The data were structured in YAML format, ensuring standardization and facilitating later analysis.

Results: The agent correctly identified the structural elements of the articles and produced summaries that were compatible with human interpretations in most of the analyzed dimensions. However, it showed limitations in analytical depth and contextualization, highlighting the need for human mediation.

Conclusion: The study demonstrates that AI agents can support systematic reviews by automating initial analysis stages. However, their use should be accompanied by qualified supervision to ensure the epistemological rigor of scientific interpretations. The proposed model represents a promising starting point for integrating AI into academic research workflows.

Keywords: Artificial intelligence Information science Language models Automated text analysis Systematic literature review

1 INTRODUÇÃO

Nos últimos anos, a Inteligência Artificial (IA) passou por uma transformação significativa, evoluindo de sistemas simples, que apenas processam informações, para agentes capazes de aprender, tomar decisões e executar tarefas de forma autônoma. Ao contrário das primeiras implementações de IA, que eram limitadas a funções específicas e reativas, os novos agentes de IA são capazes de estruturar fluxos de trabalho, adaptar-se a diferentes contextos e agir de maneira proativa, otimizando processos em diversas áreas.

Segundo Gates (2023), nos próximos cinco anos a interação com a tecnologia será radicalmente transformada. Em vez de alternar entre aplicativos para tarefas específicas, os usuários utilizarão comandos em linguagem natural, enquanto agentes de IA coordenarão e executarão ações de forma integrada e contextualizada. Essa visão é corroborada por Hendrycks (2024), que prevê agentes autônomos como interfaces inteligentes e generalistas, mediando a interação entre usuários e sistemas computacionais, irão proporcionar experiências mais fluídas, seguras e adaptativas.

Em consonância com essa perspectiva, o Gartner (2023) aponta a IA "Agêntica" como uma das principais tendências tecnológicas dos próximos anos. Estima-se que, até 2028, 33% dos aplicativos empresariais incluirão agentes de IA, e pelo menos 15% das decisões corporativas diárias serão tomadas autonomamente. Esse avanço inaugura uma nova fase da IA, na qual modelos baseados em Large Language Models (LLMs) deixam de apenas processar dados e passam a estruturar e executar fluxos de trabalho, viabilizando a transformação digital mencionada por Gates.

A adoção desses agentes representa uma mudança na interação com sistemas digitais e amplia as possibilidades para a Ciência da Informação (CI). Eles atuam como facilitadores na recuperação e entrega contextualizada de dados, automatizando decisões e adaptando-se a diferentes contextos. Segundo Deschamps e Martins (2024), acredita-se que podemos utilizar ferramentas de IA Generativa (Gen AI) em demandas acadêmicas-científicas. Essa utilização requer excelente competência em informação, portanto, urge a necessidade de as pessoas desenvolverem habilidades informacionais, inclusive sob a perspectiva da ética da informação, tendo em vista serem capazes de utilizar o conteúdo sintetizado por ferramentas e utilizá-las de forma assertiva.

Este artigo analisa o uso de agentes de IA na CI, com foco na leitura e análise automatizada de artigos científicos. A proposta destaca como esses agentes, ao operarem com LLMs, podem estruturar o conhecimento extraído da literatura, apoiar a governança da informação e otimizar a tomada de decisões em contextos acadêmicos.

Apesar dos avanços, a implementação prática desses agentes na CI ainda enfrenta desafios estruturais e conceituais. Estudos como o de (2021) destacam que o contexto de aplicação é fundamental para sua eficácia. Pesquisas recentes também apontam a necessidade de desenvolver competências informacionais específicas para o uso ético e crítico dessas tecnologias.

Após esta introdução, o artigo está organizado em cinco seções interdependentes, que buscam responder à seguinte questão central: de que forma agentes baseados em IA podem contribuir para superar lacunas na mediação e no tratamento automatizado da informação científica? A Seção 2 apresenta o referencial teórico, abordando a evolução dos agentes e suas interfaces com os fundamentos epistemológicos da Ciência da Informação. A Seção 3 detalha os procedimentos metodológicos, incluindo a modelagem dos agentes, os critérios de seleção dos dados e as estratégias de análise. A Seção 4 expõe e discute os principais resultados obtidos. Por fim, a Seção 5 traz as considerações finais, destacando as contribuições do estudo, suas limitações e possíveis desdobramentos para pesquisas futuras.

2 REVISÃO DE LITERATURA

A evolução da Inteligência Artificial (IA) tem transformado a CI, reconfigurando seus fundamentos teóricos e práticos. A adoção de modelos de linguagem natural, especialmente os baseados em aprendizado profundo, tem ampliado a automatização de processos informacionais, como organização e recuperação de dados.

Nesse contexto, os agentes inteligentes, que simulam competências cognitivas, têm otimizado fluxos de trabalho e levantado questões éticas e epistemológicas sobre o uso da informação. Segundo Moreira, Nascimento e Ribeiro (2023), sistemas como a IA desafiam concepções tradicionais de autoria e validação do conhecimento, exigindo uma reflexão crítica da comunidade científica.

Esta seção discute as principais características desses agentes e sua interseção com os fundamentos da Ciência da Informação, destacando seu papel como mediadores e catalisadores da inovação no ecossistema informacional.

2.1 Agentes de Inteligência Artificial

De acordo com Lanham (2024), um agente é definido como uma entidade que exerce influência, produz efeitos ou atua como meio para alcançar objetivos específicos. Esta definição remete à concepção filosófica de agência, discutida por pensadores como Aristóteles e Hume. Aristóteles associava a ação intencional à capacidade de agir de maneira racional e deliberada, enquanto Hume enfatizava a adaptação e o aprendizado baseados na experiência. Nos agentes de IA, essa dualidade se reflete na combinação entre raciocínio lógico e aprendizado adaptativo, permitindo que os agentes atuem de maneira autônoma tanto por meio de regras predefinidas quanto pela aprendizagem a partir de dados e interações passadas.

Com base nesse referencial teórico, torna-se crucial contextualizar as diferentes aplicações contemporâneas da Inteligência Artificial, especialmente em relação ao papel funcional de cada tecnologia nos sistemas informacionais. Para isso, é fundamental distinguir entre IA Generativa e Agentes de Inteligência Artificial. Essa distinção é sintetizada de forma esquemática no Quadro 1 – Diferença entre IA Generativa e Agentes Inteligentes, com o objetivo de destacar as diferenças essenciais entre essas abordagens.

Quadro 1 — Diferença entre IA Generativa e Agentes Inteligentes
Aspecto Agentes de IA Gen AI
Autonomia Sistemas autônomos ou semiautônomos que executam tarefas específicas dentro de um sistema ou processo. Modelos de IA que geram novos conteúdos, como texto, imagens e código, a partir de entradas do usuário.
Interação com o usuário Podem atuar diretamente, como assistentes, ou autonomamente, tomando decisões sem intervenção humana. Interagem principalmente por meio de prompts, respondendo com conteúdo gerado automaticamente.
Objetivo Principal Automatizar decisões, otimizar processos e adaptar fluxos de trabalho com base em dados contextuais. Criar conteúdos novos e coerentes baseados em padrões aprendidos a partir de grandes volumes de dados
Autonomia Variável: pode exigir aprovação do usuário ou operar de forma independente. Depende de entradas externas e não toma decisões estratégicas por conta própria.
Capacidade de aprendizado Aprendem com interações e ajustam seu desempenho ao longo do tempo. Baseiam-se em modelos treinados previamente e não aprendem continuamente com novas interações.
Exemplos Assistentes virtuais, sistemas de recomendação, chatbots que tomam decisão Modelos de linguagem como ChatGPT, DALL·E e ferramentas de geração de código.
Aplicações Gestão de processos, automação de tarefas, otimização de fluxos de trabalho. Criação de texto, imagens, códigos e outras formas de conteúdo gerado automaticamente.
Riscos e desafios Questões éticas e de segurança relacionadas à autonomia na tomada de decisões. Riscos de viés, geração de informações imprecisas e uso indevido de conteúdos gerados.

Fonte: Elaborado pelos autores (2025).

Após a diferenciação entre IA Generativa e Agentes de Inteligência Artificial, é necessário aprofundar a compreensão sobre a natureza e funcionamento desses agentes no contexto da IA. Esses sistemas, com diferentes graus de autonomia, são projetados para realizar tarefas específicas em ambientes computacionais dinâmicos. Por meio de mecanismos de percepção, decisão e ação, os agentes de IA interagem com o ambiente, adaptando-se a mudanças e aperfeiçoando continuamente seu desempenho. Tais agentes operam com arquiteturas que combinam processamento simbólico, aprendizado de máquina e inferência contextual, o que lhes confere a capacidade de lidar com tarefas complexas de forma eficaz. Sua capacidade de aprendizado contínuo não se limita a simples reações a estímulos, mas envolve tomadas de decisão proativas e otimizadas, sempre alinhadas a metas previamente estabelecidas.

Russell et al. (2021) definem um agente de IA como "qualquer entidade que perceba seu ambiente por meio de sensores e atue sobre esse ambiente por meio de atuadores", ressaltando que a inteligência do agente está diretamente relacionada à sua capacidade de escolher ações que maximizem seu desempenho ao longo do tempo. Nesse sentido, os agentes de IA podem atuar de forma autônoma ou por meio de proxies, componentes intermediários que interpretam comandos e ajustam as ações dos agentes conforme o contexto. Essa arquitetura favorece a adaptabilidade e o desempenho contínuo. A autonomia, elemento central na definição de agentes inteligentes, possibilita a execução de tarefas complexas com eficiência, muitas vezes superando a capacidade humana em velocidade e precisão. Bandeira e Tortato (2024) reforçam que a capacidade de aprendizado contínuo e de aprimoramento das decisões é um elemento essencial para o papel estratégico dos agentes de inteligência artificial em ambientes digitais.

Analogamente à concepção filosófica de agência, que remonta à ideia aristotélica de ação orientada por finalidade (telos) e à visão de Hume sobre a conexão entre crenças e motivações, os agentes de inteligência artificial, embora desprovidos de intencionalidade ou consciência, operam com base em comportamentos dirigidos a objetivos específicos. Nesse contexto, o desenvolvimento desses agentes acompanha a evolução tecnológica recente, refletindo a crescente incorporação da IA nos sistemas de organização, recuperação e gestão da informação.

Para entender as nuances da agência na IA, é necessário observar suas propriedades funcionais, como reatividade, proatividade e socialidade, conceitos inicialmente abordados por Turing (1950) em seu artigo "Computing Machinery and Intelligence", ao questionar a capacidade das máquinas de interagir de forma inteligente e ampliados por Mitchel (2019). Esses avanços indicam que, ao otimizar processos e resultados organizacionais, os agentes de IA têm um papel crescente nas soluções computacionais dinâmicas e na transformação digital das empresas.

2.2 Interseção entre agentes de Inteligência Artificial e a Ciência da Informação

Esta seção explora a aplicação de agentes de inteligência artificial na Ciência da Informação, destacando suas funcionalidades e integração com práticas informacionais modernas. Esses agentes, além de ferramentas computacionais avançadas, otimizam a eficiência dos sistemas informacionais, exigindo reflexão crítica sobre questões éticas e sociais.

O estudo foca em sistemas que atendem a esses critérios, diferenciando-os de soluções genéricas. A transformação dos processos informacionais por esses agentes é ilustrada na Figura 1: Evolução histórica dos agentes de IA aplicados à Ciência da Informação.

Evolução histórica dos agentes de IA aplicados à Ciência da Informação
Figura 1 – Evolução histórica dos agentes de IA aplicados à Ciência da Informação. Fonte: Elaborado pelos autores (2025).

A trajetória dos agentes de IA na Ciência da Informação remonta à década de 1980, quando os primeiros sistemas especialistas, como o PLEXUS (1985) e o SCISOR (1986), foram desenvolvidos. Embora esses sistemas não se qualificassem como agentes inteligentes no sentido estrito — dada a sua limitação a regras fixas e árvores de decisão pré-programadas, sem a capacidade de aprender ou de agir de forma autônoma —, representaram um marco fundamental na demonstração do potencial da automação inteligente para tarefas informacionais complexas, tais como indexação e classificação documental. O avanço desses sistemas pioneiros abriu as portas para o desenvolvimento de agentes mais sofisticados, que, mesmo de forma rudimentar, já eram capazes de emular processos decisórios humanos em contextos específicos.

Na década de 1990, observou-se uma transformação significativa com a emergência dos primeiros agentes de IA com autonomia decisória e capacidade de adaptação ao ambiente. A expansão da World Wide Web foi um fator-chave nesse processo, pois impôs novos desafios ao mesmo tempo em que abriu oportunidades para o desenvolvimento de soluções informacionais baseadas em agentes inteligentes. Projetos pioneiros, como o SHOE (1996) e o Ontobroker (1997), exploraram arquiteturas orientadas a agentes para a organização do conhecimento em ambientes digitais distribuídos, estabelecendo um marco na maneira como as informações seriam processadas, estruturadas e recuperadas em plataformas digitais. Nesse contexto, a teoria da atividade, formulada por Engeström (1987), consolidou-se como uma importante referência teórica para a compreensão dos processos de mediação informacional realizados por esses agentes, ao considerar os sistemas sociotécnicos nos quais eles operavam.

No final da década de 1990, os primeiros agentes colaborativos, como o CiteSeer (1998), começaram a demonstrar o enorme potencial da automação no campo da organização da informação científica. O CiteSeer utilizava técnicas automatizadas de indexação e recuperação de artigos acadêmicos, antecipando a consolidação, no início do novo milênio, das arquiteturas multiagente na Ciência da Informação. Essas novas arquiteturas permitiram a coordenação de sistemas distribuídos e possibilitaram a realização de tarefas complexas, como mineração de dados e descoberta automatizada de conhecimento, ampliando a sofisticação dos agentes de IA nesse campo. Além disso, surgiram iniciativas de recomendação, como os sistemas de filtragem colaborativa da Amazon (2003) e os assistentes digitais voltados à pesquisa acadêmica, conforme discutido por Baeza-Yates e Ribeiro-Neto (2011), que indicaram uma crescente tendência de personalização e mediação inteligente na gestão do acesso à informação.

Ao longo da década de 2010, a introdução de técnicas de aprendizado profundo (deep learning) transformou de maneira substancial os agentes de IA permitindo-lhes aprender continuamente a partir de grandes volumes de dados e tomar decisões cada vez mais sofisticadas e autônomas. Exemplos de agentes, como o Semantic Scholar (2015) e o Iris.ai (2016), ampliaram de forma significativa as possibilidades de mediação informacional inteligente, alterando a forma como a informação acadêmica era processada, indexada e recomendada. Nesse novo cenário, a teoria da cognição distribuída (Hollan; Hutchins; Kirsh, 2000) adquiriu uma importância renovada, pois forneceu um referencial teórico fundamental para a compreensão dos ecossistemas híbridos humano-máquina, que são característicos do funcionamento dos agentes de IA em ambientes digitais cada vez mais complexos.

Diante dos desafios técnicos, epistemológicos e éticos mencionados (Zuboff, 2019), este estudo adota uma abordagem metodológica que visa superar as complexidades da implementação de agentes de IA na Ciência da Informação.

A seguir, detalha-se a metodologia aplicada para o desenvolvimento e avaliação da arquitetura computacional proposta, com foco na análise automatizada de artigos científicos, considerando as questões de escalabilidade e ética.

3 METODOLOGIA

Este estudo, de natureza aplicada, tem como objetivo desenvolver e avaliar uma arquitetura computacional baseada em agentes de inteligência artificial para análise automatizada de artigos científicos na área da Ciência da Informação.

Com abordagem qualitativa, exploratória e descritiva, a pesquisa foi estruturada como um estudo de caso tecnológico com validação prática. Utilizou-se inteligência artificial generativa para extrair informações em linguagem natural, organizadas em cinco etapas principais detalhadas na Figura 2 – Etapas da Pesquisa.

Etapas da Pesquisa
Figura 2 – Etapas da Pesquisa. Fonte: Elaborado pelos autores (2025).

3.1 Especificação dos requisitos analíticos

A etapa inicial da pesquisa consistiu na delimitação das categorias analíticas a serem extraídas dos artigos científicos selecionados, fundamentando-se em diretrizes metodológicas consagradas no âmbito da revisão sistemática da literatura. Foram definidas oito categorias analíticas que orientaram a extração e sistematização dos dados: (i) objetivos da pesquisa; (ii) lacuna teórica ou científica identificada; (iii) metodologia adotada; (iv) principais achados; (v) limitações reconhecidas pelos autores; (vi) conclusões apresentadas; (vii) recomendações para investigações futuras; e (viii) avaliação crítica do estudo.

Complementarmente à definição do escopo analítico, estabeleceu-se o uso de uma linguagem neutra, objetiva e predominantemente descritiva, com a exclusão deliberada de adjetivações superlativas e juízos de valor. Tal orientação visa assegurar a imparcialidade na apresentação dos dados, reforçando a clareza argumentativa e a conformidade com os princípios de rigor e transparência que regem a produção científica de excelência.

A partir dessa estrutura analítica previamente definida, procedeu-se à fase de pré-processamento dos documentos e à subsequente extração sistemática do conteúdo, conforme descrito na seção a seguir.

3.2 Pré-processamento e extração de conteúdo

Dando continuidade à estrutura metodológica delineada, procedeu-se ao pré-processamento dos documentos científicos com vistas à organização e preparação dos dados textuais para análise sistemática. Os artigos, previamente armazenados em formato digital (PDF), foram submetidos a uma etapa de extração automatizada de conteúdo utilizando a biblioteca PyPDFLoader, integrante do ecossistema langchain_community, amplamente empregada em processos de mineração e tratamento de informações textuais.

Essa tecnologia viabilizou a decomposição dos documentos em unidades textuais coerentes, respeitando a estrutura lógica e semântica das páginas originais. A segmentação criteriosa dos textos assegurou a preservação da integridade informacional, aspecto fundamental para garantir a rastreabilidade e a confiabilidade dos dados extraídos.

A organização dos conteúdos em blocos estruturados favoreceu a aplicação posterior de técnicas de processamento de linguagem natural (Natural Language Processing – NLP), possibilitando o alinhamento preciso entre os dados empíricos e as categorias analíticas definidas anteriormente. Tal abordagem reflete as boas práticas de curadoria e tratamento de dados no âmbito da Ciência da Informação, especialmente no que tange à gestão, à representação e à recuperação de informações em ambientes digitais.

3.3 Modelagem do agente de análise

Na sequência do fluxo metodológico, a terceira etapa concentrou-se na modelagem de um agente computacional especializado, concebido para desempenhar a função de Analista de Artigos Científicos. A implementação desse agente foi realizada por meio da biblioteca CrewAI, um framework voltado à orquestração de agentes autônomos baseados em modelos de linguagem natural. Essa biblioteca possibilita a criação de agentes com perfis específicos, capazes de atuar de forma colaborativa ou individual na execução de tarefas cognitivas complexas, mediante a configuração de objetivos, papéis e comportamentos analíticos customizados.

No contexto desta pesquisa, a CrewAI foi empregada de maneira integrada ao modelo GPT-4, acessado por meio da interface langchain_openai, permitindo o desenvolvimento de um agente com escopo de atuação bem definido. A configuração contemplou a definição explícita dos objetivos analíticos, o contexto de aplicação (análise de literatura científica) e diretrizes metodológicas alinhadas às categorias estabelecidas na etapa anterior de extração e curadoria dos dados.

Com o intuito de assegurar maior controle sobre a conduta interpretativa do agente e preservar a coerência metodológica da análise, optou-se por desabilitar a funcionalidade de delegação de tarefas entre múltiplos agentes. Essa decisão visou mitigar variações heurísticas indesejadas, assegurando a estabilidade cognitiva da instância analítica e promovendo maior uniformidade na aplicação dos critérios de interpretação textual.

3.4 Design das tarefas e execução automatizada

A quarta etapa consistiu no delineamento das tarefas cognitivas e na execução automatizada das análises sob responsabilidade do agente computacional previamente modelado. Cada artigo científico foi concebido como uma unidade analítica independente, sendo encapsulado como uma instância da classe Task, conforme a arquitetura operacional da biblioteca CrewAI.

Nesse contexto, adotou-se um modelo de fragmentação textual controlada, no qual cada tarefa foi associada a um extrato do documento com limite de até 5.000 caracteres, valor empiricamente definido para otimizar o desempenho do modelo de linguagem e preservar a coesão semântica do conteúdo analisado. Essa granularidade permitiu ao agente processar os dados em blocos suficientemente informativos, mantendo o equilíbrio entre carga cognitiva e contexto interpretativo.

As tarefas foram alocadas ao agente de análise dentro da estrutura gerencial do objeto Crew, o qual opera como núcleo coordenador das atividades dos agentes autônomos. A execução das análises foi iniciada por meio do método kickoff(), que atua como ponto de disparo da interação entre agente e conteúdo, ativando o ciclo analítico conforme os parâmetros de configuração previamente definidos.

Esse processo garantiu a replicabilidade das análises e a rastreabilidade dos resultados, assegurando aderência às boas práticas de sistematização e controle metodológico exigidas em estudos computacionais na área da Ciência da Informação. Além disso, o uso da estrutura Crew como mecanismo de gerenciamento das tarefas analíticas conferiu robustez ao fluxo de execução, permitindo o acompanhamento preciso da atuação do agente e o registro dos outputs gerados em cada interação.

3.5 Geração e validação dos resultados

A etapa final do fluxo automatizado consistiu na sistematização e validação dos resultados produzidos pelo agente computacional. Após a execução de cada tarefa analítica, os dados extraídos foram serializados no formato YAML (YAML Ain't Markup Language), escolhido por sua legibilidade estrutural e ampla adoção em fluxos de interoperabilidade e persistência de dados. A codificação foi realizada em UTF-8, garantindo a integridade lexical e a compatibilidade com sistemas de armazenamento e leitura textual em múltiplos ambientes computacionais.

As saídas geradas foram automaticamente armazenadas em um diretório previamente definido, com nomenclatura padronizada e controle de versionamento, assegurando a rastreabilidade dos resultados. Para cada operação de escrita, o sistema executa uma verificação automatizada de integridade, emitindo mensagens de status e, em caso de erro, registrando logs informativos com dados técnicos para diagnóstico e auditoria.

Com o objetivo de assegurar a conformidade metodológica da atuação do agente, foi conduzida uma auditoria manual realizada pelos autores da pesquisa. Essa auditoria consistiu na verificação amostral dos arquivos gerados, com especial atenção ao alinhamento entre os resultados extraídos e os parâmetros e diretrizes analíticas previamente definidos na etapa de configuração do agente. Foram observados aspectos como: aderência às categorias analíticas, consistência descritiva, fidelidade ao conteúdo textual original e respeito aos limites semânticos estabelecidos.

Adicionalmente, destaca-se que a atuação humana não se restringiu à auditoria técnica do sistema, mas se estenderá, conforme descrito na próxima seção, à validação crítica dos achados. Essa etapa incluirá a análise qualitativa das respostas produzidas pela IA promovendo um processo de verificação cruzada entre inteligência artificial e julgamento humano, assegurando não apenas a robustez técnica, mas também a credibilidade epistemológica dos resultados.

3.6 População e amostragem

A população investigada nesta pesquisa compreende publicações científicas vinculadas ao domínio da Ciência da Informação, com ênfase em estudos que abordam práticas metodológicas de revisão da literatura, representação do conhecimento e tratamento informacional. A amostra, por sua vez, foi composta por dois artigos científicos publicados na RDBCI – Revista Digital de Biblioteconomia e Ciência da Informação, sediada em Campinas, SP.

A seleção foi realizada por meio de amostragem intencional, tendo como critério principal a relevância temática das publicações para os objetivos da pesquisa, bem como a disponibilidade do conteúdo em formato digital integral, condição indispensável para o processamento computacional automatizado.

O objetivo da análise recaiu sobre a verificação da capacidade de um agente de inteligência artificial em interpretar, sintetizar e estabelecer comparações entre publicações científicas, considerando os princípios e os métodos aplicados na área da Ciência da Informação. A escolha por artigos provenientes de um periódico científico reconhecido visou garantir a qualidade metodológica e a representatividade teórica dos documentos, contribuindo para a robustez e a confiabilidade dos resultados obtidos.

3.7 Instrumentos e Técnicas de Coleta e Análise de Dados

O principal instrumento de coleta de dados adotado nesta investigação foi o agente computacional autônomo, desenvolvido e configurado especificamente para esta finalidade, conforme descrito nas seções anteriores. Esse agente foi programado para realizar a extração estruturada de conteúdos textuais a partir dos artigos selecionados, utilizando como referência um modelo de saída padronizado, baseado nas categorias analíticas previamente definidas.

A validação dos dados extraídos foi conduzida por meio de uma análise cruzada com os documentos originais, assegurando a fidelidade semântica das informações e o respeito à integridade autoral. Esse procedimento visou garantir que o agente operasse em conformidade com os princípios éticos e legais de uso de conteúdo acadêmico, evitando distorções interpretativas ou violações de direitos autorais.

A análise dos dados foi realizada sob uma abordagem qualitativa, centrada na verificação da consistência interpretativa, clareza textual e alinhamento às diretrizes analíticas. O processo analítico buscou, portanto, integrar a precisão técnica da extração automatizada com o rigor epistemológico característico da Ciência da Informação, promovendo uma interpretação crítica e contextualizada dos achados.

3.8 Tecnologias e ferramentas utilizadas

A arquitetura computacional desenvolvida para esta pesquisa foi concebida com base em uma abordagem modular, visando à escalabilidade, reprodutibilidade e compatibilidade com pipelines automatizados de análise textual assistida por inteligência artificial. A implementação foi realizada na linguagem de programação Python, versão 3.13, selecionada por sua ampla adoção na comunidade científica e pela robustez de seu ecossistema voltado ao desenvolvimento de aplicações em inteligência artificial e ciência de dados.

A arquitetura é composta por quatro módulos principais, integrados de forma a viabilizar o processamento completo dos artigos científicos, desde a leitura dos arquivos em formato PDF até a geração estruturada dos resultados analíticos. A seguir, a Figura 3 – Arquitetura Computacional, descreve os componentes e suas respectivas funções:

Arquitetura Computacional
Figura 3 – Arquitetura Computacional. Fonte: Elaborado pelos autores (2025).

O módulo de extração e pré-processamento foi responsável pela leitura e segmentação dos artigos científicos em formato PDF, utilizando a biblioteca PyPDFLoader, do ecossistema langchain_community. Essa ferramenta permitiu a conversão dos documentos em objetos textuais estruturados, preservando a integridade do conteúdo original.

O módulo de orquestração de tarefas e definição de agentes foi implementado com base na biblioteca CrewAI, possibilitando a modelagem de agentes autônomos e a coordenação de suas ações analíticas. Cada agente foi configurado segundo perfis específicos, definidos em consonância com os requisitos analíticos estabelecidos.

No módulo de inferência e análise textual, a integração com o modelo GPT-4 foi viabilizada por meio da interface langchain_openai, permitindo a geração controlada de respostas a partir de prompts customizados. Este módulo constituiu o núcleo da arquitetura, sendo responsável pela análise semiautomatizada do conteúdo e pela produção de respostas estruturadas, em conformidade com os princípios de linguagem neutra e originalidade.

Por fim, o módulo de persistência e controle de execução foi responsável pela serialização dos resultados em formato YAML, com codificação UTF-8, assegurando rastreabilidade e integridade dos dados. Bibliotecas padrão da linguagem Python foram utilizadas para gerenciar diretórios, verificar a criação de arquivos e emitir mensagens de status ao término de cada operação.

A integração entre esses módulos permitiu a criação de um fluxo de trabalho contínuo e automatizado, desde a ingestão dos documentos até a geração dos resultados estruturados. A arquitetura proposta foi desenhada para ser reutilizável em diferentes contextos analíticos e facilmente adaptável a outras tipologias documentais, demonstrando potencial para apoiar estudos sistemáticos em larga escala com auxílio de agentes baseados em inteligência artificial.

3.9 Considerações éticas e Limitações e controle de viés

Foram adotadas diretrizes éticas rigorosas para garantir a integridade científica. O agente computacional foi explicitamente instruído a evitar qualquer reprodução literal de trechos dos documentos analisados. Estratégias de paráfrase com alta originalidade textual (nível 10/10) foram utilizadas para assegurar conformidade com as boas práticas da produção científica automatizada.

A principal limitação identificada refere-se à dependência das capacidades interpretativas do modelo GPT-4, o que pode resultar em variações na qualidade da extração textual. Para mitigar esse fator, foram aplicadas diretrizes formais de estilo, delimitação de vocabulário e estrutura analítica rígida. A utilização de um modelo de saída padronizado visou reduzir inconsistências e aumentar a replicabilidade da metodologia.

4 RESULTADOS

Esta seção demonstra os resultados obtidos a partir da pesquisa aplicada, conforme a metodologia definida anteriormente. Como detalhado, o objetivo deste estudo, de natureza aplicada, foi o desenvolvimento e a avaliação de uma arquitetura computacional baseada em agentes de inteligência artificial para a análise automatizada de artigos científicos na área da Ciência da Informação. A pesquisa adotou uma abordagem qualitativa, exploratória e descritiva, estruturada como um estudo aplicado e com abordagem tecnológica com validação prática.

Foram realizados dois quadros comparativos, um para cada artigo publicado na RDBCI – Revista Digital de Biblioteconomia e Ciência da Informação | Campinas, SP. O primeiro artigo, intitulado "Inteligência artificial no levantamento bibliográfico em bases de dados científicos: comparando expressões de busca no ChatGPT, Copilot e Gemini", foi analisado por meio de um quadro comparativo específico, e o segundo artigo, "O desenvolvimento tecnológico e de inovação em gestão do conhecimento", foi apresentado em seu próprio quadro.

O primeiro artigo, de autoria de Antônio Carlos Picalho, Gisele Rosa de Oliveira e Adriana Stefani Cativelli, realiza um estudo comparativo entre três ferramentas de inteligência artificial aplicadas à elaboração de estratégias de busca bibliográfica. Já o segundo artigo, de Rafael Gutierres Castanha, Fernanda Bochi dos Santos e Augusto Júnior Macucule, aborda o desenvolvimento e inovação tecnológica na área de gestão do conhecimento, por meio de uma análise patentométrica. Em ambos os estudos, foi realizada uma auditoria humana para verificar a precisão de cada item extraído e comparado, garantindo a confiabilidade dos resultados.

O quadro apresenta três colunas, com a primeira denominada "Dimensão", onde são listadas as diferentes categorias de análise. A segunda coluna, "Análise da IA (Saída - arquivo - YAML)", detalha as respostas geradas pelo agente de inteligência artificial, representadas no formato de arquivo YAML. Já a terceira coluna, "Análise dos Autores", apresenta a interpretação dos autores humanos, permitindo uma comparação entre as saídas da IA e as análises realizadas pelos especialistas. Este formato facilita a visualização e a comparação entre as contribuições do agente de IA e as conclusões dos autores.

Quadro 2 — Comparativo – Artigo 1
Dimensão Análise da IA (Saída - arquivo - YAML) Análise dos Autores
Objetivos O estudo teve como objetivo examinar o potencial de três ferramentas de inteligência artificial (ChatGPT-4, Copilot e Gemini) na execução de comandos diretos relacionados à elaboração de expressões de busca em bases de dados científicos. O agente identificou corretamente o objetivo do artigo, validado pelos trechos: 'O objetivo deste artigo não foi trazer uma contribuição teórica para o campo [...], mas sim, executar o potencial de três ferramentas de IA ao executar comandos diretos relacionados à formação de expressões de busca e .... expressões de busca'.
Lacuna (Gap) O estudo abordou a lacuna existente na compreensão do desempenho de diferentes ferramentas de inteligência artificial na elaboração de expressões de busca, uma tarefa crucial em bibliotecas e serviços de referência. O agente identificou corretamente a lacuna do estudo, validada por trechos que destacam a ausência de pesquisas comparativas sobre o uso de IA generativa na construção de expressões de busca, como: 'a pesquisa apresenta caráter inovador ao expor na prática o potencial de uso das ferramentas de IA Generativa...' e a demanda crescente por apoio na elaboração de estratégias de busca.
Metodologia O estudo foi caracterizado como pesquisa aplicada, empírica e de método comparativo. Foram selecionadas três ferramentas de inteligência artificial: Chat GPT -4, Copilot e Gemini. Descritores, termos livres e expressões de busca foram selecionados com base em um objetivo fictício de pesquisa. Prompts foram usados para indicar o que as ferramentas deveriam retornar em relação à pesquisa e a análise focou em avaliar o entendimento dos comandos e a existência ou não de erros de sintaxe. O agente identificou corretamente a metodologia como "pesquisa aplicada, empírica e de método comparativo". No entanto, em futuras versões, poderiam ser incorporadas ações que evidenciem com maior clareza a "veracidade" e a "operacionalização do caráter empírico", como a explicitação de "critérios de avaliação", "métricas de comparação" e "validação externa dos outputs gerados pelas ferramentas".
Resultados O estudo encontrou que, em solicitações mais mecânicas, o ChatGPT e o Copilot tiveram melhor desempenho, com pouca ou nenhuma distorção. No entanto, em solicitações mais contextuais, o Gemini apresentou melhores resultados. Foram observados erros em operadores booleanos e outros operadores avançados de pesquisa, além da execução de ações não solicitadas. O artigo evidencia variações no desempenho das ferramentas de IA: ChatGPT e Copilot se saíram melhor em tarefas mecânicas, enquanto o Gemini teve destaque em comandos contextuais. Também foram relatados erros em operadores booleanos e ações não solicitadas. O agente identificou corretamente esses aspectos, no entanto, sua resposta foi descritiva, sem enfatizar a relevância crítica dessa limitação para a aplicabilidade prática.
Limitações O estudo reconheceu que, apesar de as ferramentas de inteligência artificial serem úteis para tarefas repetitivas e corretivas, elas não produzem expressões de busca de alta sensibilidade por si só, necessitando de supervisão e adequações antes da estratégia ser empregada. O agente identificou corretamente a limitação central do estudo ao reconhecer que as ferramentas de inteligência artificial, embora úteis, não geram expressões de busca de alta sensibilidade sem supervisão. Sua análise está alinhada ao texto, que define as IAs como "grandes aliadas", mas que "necessitam de supervisão e adequações antes da estratégia ser empregada". A resposta reflete com precisão essa limitação metodológica, considerada uma das conclusões principais do trabalho.
Conclusão O estudo concluiu que as ferramentas de inteligência artificial, embora úteis, ainda necessitam de supervisão e ajustes para produzir expressões de busca de alta sensibilidade, destacando a importância do papel humano na elaboração de estratégias de busca. O agente reconheceu corretamente a necessidade de supervisão humana, mas sua análise foi superficial ao não aprofundar um ponto central do estudo: a importância do papel dos profissionais da informação e da interação entre humanos e IA nas estratégias de busca.
Futuras Pesquisas O estudo sugere que pesquisas futuras poderiam focar em melhorar a sensibilidade das ferramentas de inteligência artificial na elaboração de expressões de busca, bem como explorar a integração dessas ferramentas em outros aspectos dos serviços de referência em bibliotecas. O agente identificou parte das sugestões do estudo, como o aprimoramento das IAs e sua integração em serviços de referência, mas omitiu pontos importantes, como a comparação com outras IAs científicas e a necessidade de treinamento, o que limita o escopo da análise.
Avaliação Crítica O estudo forneceu uma análise útil do desempenho de diferentes ferramentas de inteligência artificial na elaboração de expressões de busca. No entanto, poderia ter se beneficiado de uma amostra maior de expressões de busca e de uma análise mais aprofundada dos erros encontrados. Além disso, a inclusão de outras ferramentas de inteligência artificial poderia ter proporcionado uma comparação mais abrangente. O agente identificou corretamente limitações técnicas, como a necessidade de uma amostra maior e de incluir outras ferramentas de IA, mas sua análise foi superficial. Como autores, destacamos a relevância do tema, o papel humano na mediação informacional e sugestões práticas para pesquisas futuras — pontos ausentes na resposta automatizada, que ainda carece de profundidade interpretativa.

Fonte: Dados da Pesquisa (2025).

O agente analisado no estudo demonstrou um desempenho satisfatório na extração das informações centrais do artigo, reconhecendo corretamente os objetivos, a lacuna, a metodologia e as principais conclusões. Validou, com base em trechos explícitos, que o artigo visava "examinar o potencial de três ferramentas de IA ao executar comandos diretos relacionados à formação de expressões de busca" e que a lacuna principal era a ausência de estudos comparativos na área. A metodologia foi adequadamente identificada como "pesquisa aplicada, empírica e de método comparativo". Contudo, o agente não aprofundou a análise sobre a "veracidade" e a "operacionalização do caráter empírico", sem detalhar critérios, métricas ou formas de validação utilizadas.

Nos resultados, o agente reconheceu os achados principais — como o desempenho distinto das ferramentas em comandos mecânicos e contextuais —, mas a análise permaneceu descritiva, sem categorização analítica ou indicadores de desempenho. Além disso, a ausência de representações visuais e de uma estrutura comparativa limitou a clareza e utilidade da apresentação. As limitações do estudo foram bem identificadas, especialmente em relação à necessidade de supervisão humana, embora a importância dessa mediação tenha sido pouco explorada pelo agente.

As sugestões para pesquisas futuras foram parcialmente abordadas, sem considerar comparações com outras IAs voltadas para pesquisa científica ou a necessidade de treinamentos específicos. Em resumo, a análise automatizada mostrou coerência técnica, mas ainda carece de profundidade conceitual, ressaltando a importância da análise humana para interpretações mais amplas e críticas.

Agora, passaremos à análise do Artigo 2, intitulado "O desenvolvimento tecnológico e de inovação em gestão do conhecimento", que explora aspectos tecnológicos no campo da gestão do conhecimento. A seguir, os detalhes do estudo.

Quadro 3 — Comparativo – Artigo 2
Dimensão Análise da IA (Saída - arquivo - YAML) Análise dos Autores
Objetivos O principal objetivo do estudo foi analisar o desenvolvimento tecnológico e a inovação na gestão do conhecimento, especificamente por meio da produção de patentes na área. Os autores confirmam que o objetivo do artigo foi corretamente identificado: analisar o desenvolvimento tecnológico e a inovação na gestão do conhecimento com base na produção de patentes. O objetivo é claramente definido na introdução: "O objetivo central é analisar o desenvolvimento tecnológico e a inovação a partir das patentes sobre gestão do conhecimento".
Lacuna (Gap) O estudo abordou a lacuna existente na compreensão do papel das patentes na gestão do conhecimento e como elas contribuem para o desenvolvimento tecnológico e a inovação. O agente identificou corretamente a lacuna do estudo, evidenciada por trechos que ressaltam a necessidade de compreender o papel das patentes na gestão do conhecimento e sua contribuição para o desenvolvimento tecnológico e a inovação. Essa lacuna é explicitada no problema de pesquisa, nos objetivos e reforçada nas conclusões, que destacam a importância de analisar a produção patentária para identificar tendências e orientar estratégias futuras na área.
Metodologia O estudo utilizou uma abordagem patentométrica, com o termo de busca 'knowledge management' na base de dados Derwent Index Innovation. Foram coletados dados relacionados a patentes sobre gestão do conhecimento, totalizando 1311 resultados. A análise incluiu a evolução temporal da solicitação de patentes, as principais áreas das patentes, a concorrência entre as classificações internacionais de patentes e a cooperação entre organizações ou inventores. O agente corretamente identificou que o estudo adota uma abordagem patentométrica para analisar a produção de patentes em gestão do conhecimento. No entanto, cometeu erros conceituais ao incluir informações da seção de resultados na descrição metodológica, como os códigos de classificação e organizações recorrentes. Além disso, não detalhou aspectos essenciais da operacionalização, como critérios de seleção, filtragem e categorização dos dados extraídos do Derwent Index Innovation, evidenciando uma compreensão incompleta dos procedimentos metodológicos.
Resultados O estudo encontrou um aumento na solicitação de patentes em Gestão do Conhecimento entre 1992 e 2024. As áreas de conhecimento de maior concentração são engenharia e Ciência da Computação e os códigos de classificação internacional de patentes mais representativos são: G06N, G06F, G06Q e H04L. As principais cooperações ocorreram entre as organizações IBMC, Hitachi Ltd., Hewlett-Packard Company e Oracle. O agente identificou corretamente os principais resultados do estudo, como o crescimento das patentes em gestão do conhecimento, as áreas de maior concentração, os códigos de classificação mais frequentes e as principais colaborações institucionais. No entanto, sua análise permaneceu descritiva, sem aprofundar implicações ou contextualizar os achados no campo da inovação e da gestão do conhecimento.
Limitações O estudo não discutiu explicitamente suas limitações, mas é possível inferir que a análise se restringiu à base de dados Derwent Index Innovation, o que pode ter excluído patentes relevantes de outras bases de dados. O agente reconheceu corretamente a limitação referente ao uso exclusivo da base Derwent, mas não abordou a ausência de uma análise crítica dos achados. A apresentação dos resultados foi descritiva, sem explorar suas implicações para a gestão do conhecimento. A avaliação automatizada foi adequada tecnicamente, mas limitada quanto à profundidade interpretativa.
Conclusão O estudo concluiu que a solicitação de patentes em gestão do conhecimento está em pleno crescimento, com algumas organizações se destacando mais do que outras. As patentes referem-se principalmente ao desenvolvimento de artefatos e/ou processos industriais relacionados à Engenharia e Computação. O agente abordou corretamente os principais pontos da conclusão, como o crescimento das solicitações de patentes e a predominância das áreas de Engenharia e Computação. No entanto, a conclusão poderia ser enriquecida com uma análise dos fatores que impulsionam esse crescimento, bem como uma reflexão crítica sobre as organizações em destaque e a relevância estratégica das áreas tecnológicas envolvidas.
Futuras Pesquisas O estudo sugere uma análise mais aprofundada das patentes em gestão do conhecimento, possivelmente expandindo a pesquisa para outras bases de dados e considerando outras variáveis, como o impacto dessas patentes no mercado e na sociedade. O agente identificou corretamente direções para pesquisas futuras, como a ampliação para outras bases de dados e o aprofundamento em variáveis como impacto social e econômico. Contudo, não abordou sugestões importantes do estudo, como a análise da Hélice Tríplice, a comparação entre países desenvolvidos e em desenvolvimento, e a investigação em setores emergentes. Esses pontos são fundamentais para a compreensão da gestão do conhecimento e sua relação com a inovação em diferentes contextos.
Avaliação Crítica O estudo fornece uma visão interessante sobre o papel das patentes na gestão do conhecimento. No entanto, a falta de uma discussão explícita sobre as limitações da pesquisa e a ausência de uma análise mais aprofundada do impacto dessas patentes limitam a generalização dos resultados. O agente identificou corretamente os principais pontos da conclusão, mas não aprofundou as implicações dos achados nem mencionou a ausência de uma discussão crítica sobre as limitações. Sua análise foi adequada, porém limitada em termos interpretativos, evidenciando a necessidade de mediação humana para uma leitura mais abrangente.

Fonte: Dados da Pesquisa (2025).

No segundo artigo, o agente identificou corretamente os objetivos, a lacuna, a metodologia e as conclusões, validando a intenção de analisar o desenvolvimento tecnológico e a inovação na gestão do conhecimento por meio da produção de patentes. No entanto, a análise do agente não aprofundou a operacionalização da pesquisa, como os critérios de seleção de dados, e deixou de detalhar aspectos importantes, como a "veracidade" da pesquisa. Nos resultados, o agente reconheceu corretamente os principais achados, mas a análise foi descritiva e não contextualizou adequadamente os achados no campo da inovação e gestão do conhecimento. A ausência de categorização analítica e representações visuais limitou a clareza dos resultados. O agente também reconheceu as limitações do estudo, como o uso exclusivo da base de dados Derwent, mas não explorou suas implicações. As sugestões para pesquisas futuras foram corretamente apontadas, mas o agente deixou de abordar questões cruciais, como a análise da Hélice Tríplice e a comparação entre países desenvolvidos e em desenvolvimento. De modo geral, a análise foi tecnicamente coerente, mas faltou maior profundidade conceitual, o que evidencia a necessidade de uma interpretação humana mais crítica.

Em relação à avaliação geral dos dois artigos, os resultados obtidos pelo agente de inteligência artificial revelam tanto as potencialidades quanto as limitações no uso de tais tecnologias para a interpretação e síntese de artigos científicos na área da Ciência da Informação. Embora o desempenho do agente tenha sido satisfatório em muitos aspectos, como a identificação dos objetivos e a extração das informações centrais, a análise dos resultados mostrou que há uma necessidade de maior profundidade interpretativa e contextualização. A ausência de uma abordagem mais crítica nas limitações e nas sugestões para futuras pesquisas também destaca a importância da mediação humana, que enriquece as interpretações e amplia as conclusões. A seguir, a seção de discussão irá explorar essas questões, abordando as implicações dos achados e as possibilidades de aprimoramento das metodologias utilizadas.

5 CONCLUSÃO

Este estudo teve como objetivo propor e avaliar a aplicação de um agente de inteligência artificial (IA), baseado em modelos de linguagem, para realizar a análise automatizada de artigos científicos no campo da Ciência da Informação. Os resultados demonstraram que o agente foi capaz de identificar corretamente elementos estruturais relevantes dos artigos, como objetivos, lacuna de pesquisa, metodologia, resultados e sugestões para estudos futuros. Essa capacidade confirma o potencial da IA como ferramenta de apoio na execução de tarefas repetitivas e estruturadas, como a leitura inicial e a categorização de dados textuais em revisões sistemáticas da literatura.

A análise crítica, no entanto, evidenciou limitações importantes. A atuação do agente revelou-se descritiva e pouco aprofundada em aspectos analíticos e conceituais, especialmente na interpretação das implicações dos achados e na formulação de inferências mais complexas. Esses pontos demonstram que, embora a tecnologia ofereça suporte relevante ao trabalho do pesquisador, sua atuação ainda exige mediação humana qualificada, capaz de agregar densidade teórica, crítica e contextual à análise automatizada.

Do ponto de vista teórico, este trabalho contribui para o avanço das discussões sobre a integração entre sistemas inteligentes e os métodos de pesquisa em Ciência da Informação, sinalizando caminhos promissores para a automação de etapas metodológicas sem comprometer a qualidade da interpretação científica. Na prática, aponta para o uso estratégico de agentes de IA em atividades como triagem inicial de artigos, identificação de padrões e extração de metadados, com vistas a otimizar tempo e esforço em processos investigativos.

A implementação técnica, realizada com o uso das bibliotecas CrewAI, langchain_openai e PyPDFLoader, demonstrou-se eficaz ao permitir a leitura semiautônoma de documentos acadêmicos e a extração sistemática de informações segundo critérios analíticos predefinidos. O modelo YAML adotado como formato de saída assegurou a padronização dos resultados, facilitando sua integração com fluxos de análise posteriores. A preocupação ética foi evidenciada na definição de diretrizes para a linguagem neutra, a originalidade textual e o respeito aos direitos autorais dos autores analisados.

Entre as limitações, destaca-se a análise aplicada a um número restrito de artigos, o que limita a generalização dos achados. Além disso, o desempenho do agente depende diretamente da qualidade e clareza do texto analisado, o que pode comprometer os resultados em estudos menos estruturados ou mal redigidos.

Futuras pesquisas devem ampliar a base empírica, testar a arquitetura proposta em outros domínios científicos e investigar formas de combinar a atuação de múltiplos agentes com diferentes especializações. Também é recomendável o desenvolvimento de métricas que avaliem não apenas a precisão das extrações, mas a profundidade interpretativa das respostas geradas.

Conclui-se que a integração de agentes de inteligência artificial ao processo de análise científica pode representar um avanço metodológico relevante, especialmente quando articulada a práticas reflexivas e ao julgamento humano. Este estudo oferece uma base sólida para o uso ético, responsável e epistemologicamente ancorado da IA na produção e organização do conhecimento científico.

🌐 English

1 INTRODUCTION

Recently, artificial intelligence (AI) has undergone a significant transformation. It has evolved from simple systems that only process information into agents that can learn, make decisions, and perform tasks autonomously. Unlike early AI implementations, which were limited to specific, reactive functions, new AI agents can structure workflows, adapt to different contexts, act proactively, and optimize processes in various areas.

According to Gates (2023), the way we interact with technology will change radically over the next five years. Rather than switching between applications for specific tasks, users will employ natural language commands, and AI agents will coordinate and execute actions in an integrated, contextualized manner. Hendrycks (2024) corroborates this view, predicting that autonomous agents will serve as intelligent, generalist interfaces that mediate interaction between users and computer systems, providing more fluid, secure, and adaptive experiences.

In line with this perspective, Gartner (2023) identifies "agentic" AI as one of the primary technological trends for the coming years. By 2028, it is estimated that 33% of business applications will include AI agents and at least 15% of daily corporate decisions will be made autonomously. This advance marks a new phase of AI in which models based on large language models (LLMs) not only process data but also structure and execute workflows. This enables the digital transformation Gates mentioned.

Adopting the agents' changes how we interact with digital systems and expands the possibilities for information science. These agents facilitate the retrieval and contextualized delivery of data, automating decisions and adapting to different contexts. According to Deschamps and Martins (2024), Generative AI (Gen AI) tools can be used for academic and scientific purposes. Using these tools requires excellent information literacy; therefore, there is an urgent need for people to develop information skills, including those related to information ethics, to use the synthesized content assertively.

This article analyzes the use of AI agents in IS, focusing on the automated reading and analysis of scientific articles. The article highlights how, when operating with LLMs, these agents can structure knowledge extracted from literature, support information governance, and optimize decision-making in academic contexts.

Despite advances in the field, the practical implementation of these agents in intensive care (IC) still faces structural and conceptual challenges. Studies such as one from 2021 highlight that the context of application is fundamental to their effectiveness. Recent research also emphasizes the necessity of developing specific information skills for the ethical and critical use of these technologies.

Following this introduction, the article is organized into five interdependent sections that address the central question of how AI-based agents can contribute to overcoming gaps in the mediation and automated processing of scientific information. Section 2 presents the theoretical framework and addresses the evolution of agents and their interfaces with the epistemological foundations of information science. Section 3 details the methodological procedures, including agent modeling, data selection criteria, and analysis strategies. Section 4 presents and discusses the main results obtained. Finally, Section 5 presents concluding remarks, highlighting the study's contributions, limitations, and potential avenues for future research.

2 LITERATURE REVIEW

The evolution of artificial intelligence (AI) has transformed information processing (IP) by reconfiguring its theoretical and practical foundations. The adoption of natural language models, particularly deep learning-based ones, has increased the automation of information processes such as data organization and retrieval.

In this context, intelligent agents that simulate cognitive abilities have optimized workflows and raised ethical and epistemological questions about the use of information. According to Moreira, Nascimento, and Ribeiro (2023), AI systems challenge traditional conceptions of authorship and knowledge validation, prompting the scientific community to engage in critical reflection.

This section discusses the main characteristics of these agents and how they intersect with the fundamentals of information science. It highlights their role as mediators and catalysts of innovation in the information ecosystem.

2.1 Artificial Intelligence agents

According to Lanham (2024), an agent is defined as an entity that exerts influence, produces effects, or acts as a means of achieving specific goals. This definition relates to the philosophical concept of agency, which was discussed by thinkers such as Aristotle and Hume. Aristotle associated intentional action with rational and deliberate behavior, whereas Hume emphasized adaptation and learning based on experience. AI agents reflect this duality by combining logical reasoning and adaptive learning. This allows them to act autonomously through predefined rules and by learning from past data and interactions.

Based on this theoretical framework, it is essential to contextualize contemporary applications of artificial intelligence, especially in relation to each technology's functional role in information systems. To this end, it is essential to distinguish between generative AI and artificial intelligence agents. Chart 1 – "Difference Between Generative AI and Intelligent Agents" – summarizes this distinction, highlighting the essential differences between these approaches.

Chart 1 — Difference between Generative AI and Intelligent Agents
Aspect AI agents Gen AI
Autonomy Autonomous or semi-autonomous systems that perform specific tasks within a system or process. AI models that generate new content, such as text, images, and code, based on user input.
User interaction They can act directly, as assistants, or autonomously, making decisions without human intervention. They interact primarily through prompts, responding with automatically generated content.
Main objective Automate decisions, optimize processes, and adapt workflows based on contextual data. Create new and coherent content based on patterns learned from large volumes of data
Autonomy Variable: may require user approval or operate independently. Depends on external inputs and does not make strategic decisions on its own.
Learning ability They learn from interactions and adjust their performance over time. They are based on previously trained models and do not continuously learn from new interactions.
Examples Virtual assistants, recommendation systems, decision-making chatbots Language models such as ChatGPT, DALL·E, and code generation tools.
Applications Process management, task automation, workflow optimization. Creation of text, images, code, and other forms of automatically generated content.
Risks and challenges Ethical and security issues related to autonomy in decision-making. Risks of bias, generation of inaccurate information, and misuse of generated content.

Source: Prepared by the authors (2025).

After distinguishing between generative AI and artificial intelligence agents, it is important to further understand the nature and operation of these agents within the context of AI. These systems are designed to perform specific tasks in dynamic computing environments and have varying degrees of autonomy. AI agents interact with the environment through perception, decision-making, and action mechanisms, adapting to changes and continuously improving their performance. These agents operate using architectures that combine symbolic processing, machine learning, and contextual inference, giving them the ability to effectively handle complex tasks. Their ability to continuously learn is not limited to simple reactions to stimuli; it involves proactive, optimized decision-making that is always aligned with previously established goals.

Russell et al. (2021) define an AI agent as "any entity that perceives its environment through sensors and acts on that environment through actuators," emphasizing that an agent's intelligence is directly related to its ability to select actions that will maximize its performance over time. Either AI agents can act autonomously or through proxies, which are intermediate components that interpret commands and adjust the agents' actions according to the context. This architecture promotes adaptability and continuous performance. Autonomy, a central element in the definition of intelligent agents, enables efficient execution of complex tasks that often surpass human capacity in terms of speed and accuracy. Bandeira and Tortato (2024) reinforce the idea that the capacity for continuous learning and decision improvement is essential for the strategic role of AI agents in digital environments.

Similar to the philosophical concept of agency, dating back to Aristotle's notion of purposeful action (telos) and Hume's perspective on the relationship between beliefs and motivations, AI agents, despite lacking intentionality or consciousness, act based on behaviors aimed at achieving particular goals. The development of these agents reflects the growing incorporation of AI into information organization, retrieval, and management systems, accompanying recent technological developments.

To understand the nuances of agency in AI, it is necessary to observe its functional properties, such as reactivity, proactivity, and sociality. These concepts were initially addressed by Turing (1950) in his article "Computing Machinery and Intelligence," in which he questioned the ability of machines to interact intelligently. These concepts were later expanded upon by Mitchell (2019). These advances suggest that AI agents play an increasingly important role in dynamic computational solutions and the digital transformation of companies by optimizing organizational processes and results.

2.2 Intersection between Artificial Intelligence agents and Information Science

This section explores the application of artificial intelligence (AI) agents in information science, highlighting their functionalities and integration with modern information practices. In addition to advanced computational tools, these agents optimize the efficiency of information systems, prompting critical reflection on ethical and social issues.

The study focuses on systems that meet these criteria, distinguishing them from generic solutions. Figure 1, "Historical Evolution of AI Agents Applied to Information Science," illustrates the transformation of information processes by these agents.

Historical evolution of AI agents applied to Information Science
Figure 1 – Historical evolution of AI agents applied to Information Science. Source: Prepared by the authors (2025).

The history of AI agents in information science dates back to the 1980s when the first expert systems, such as PLEXUS (1985) and SCISOR (1986), were developed. While these systems did not qualify as intelligent agents in the strict sense, given their limitations to fixed rules and pre-programmed decision trees without the ability to learn or act autonomously, they represented a fundamental milestone in demonstrating the potential of intelligent automation for complex information tasks such as document indexing and classification. These pioneering systems advanced the development of more sophisticated agents that could emulate human decision-making processes in specific contexts, even in a rudimentary form.

In the 1990s, a significant transformation occurred with the emergence of the first AI agents capable of autonomous decision-making and environmental adaptation. The expansion of the World Wide Web was a key factor in this process, posing new challenges while opening up opportunities for developing information solutions based on intelligent agents. Pioneering projects such as SHOE (1996) and Ontobroker (1997) explored agent-oriented architectures for organizing knowledge in distributed digital environments. These projects established a milestone in how information would be processed, structured, and retrieved on digital platforms. In this context, activity theory, formulated by Engeström (1987), became an important theoretical reference for understanding the information mediation processes performed by these agents within their socio-technical contexts.

Toward the end of the 1990s, the first collaborative agents, such as CiteSeer (1998), began demonstrating the enormous potential of automation in scientific information organization. CiteSeer used automated techniques to index and retrieve academic articles, foreshadowing the consolidation of multiagent architectures in information science at the beginning of the new millennium. These new architectures enabled the coordination of distributed systems, making it possible to perform complex tasks such as data mining and automated knowledge discovery. This increased the sophistication of AI agents in the field. Additionally, recommendation initiatives emerged, including Amazon's collaborative filtering systems (2003) and digital assistants for academic research. As discussed by Baeza-Yates and Ribeiro-Neto (2011), these initiatives indicated a growing trend toward personalization and intelligent mediation in managing access to information.

Throughout the 2010s, the introduction of deep learning techniques transformed AI agents, enabling them to learn continuously from large volumes of data and make increasingly sophisticated, autonomous decisions. Agents like Semantic Scholar (2015) and Iris.ai (2016) have significantly expanded the possibilities for intelligent information mediation, changing the way academic information is processed, indexed, and recommended. In this new scenario, the theory of distributed cognition (Hollan, Hutchins, & Kirsh, 2000) has taken on renewed importance as a fundamental theoretical framework for understanding hybrid human-machine ecosystems, which are characteristic of AI agents' functioning in increasingly complex digital environments.

Considering the technical, epistemological, and ethical challenges mentioned by Zuboff (2019), this study employs a methodological approach to overcome the complexities of implementing AI agents in information science.

The following details the methodology applied to develop and evaluate the proposed computational architecture, with a focus on the automated analysis of scientific articles and consideration of issues of scalability and ethics.

3 METHODOLOGY

This applied study aims to develop and evaluate a computational architecture based on artificial intelligence (AI) agents for the automated analysis of scientific articles in the field of information science.

Using a qualitative, exploratory, and descriptive approach, the research was structured as a technological case study with practical validation. Generative artificial intelligence was used to extract natural language information, which was organized into five main stages, as detailed in Figure 2: Research Stages.

Research stages
Figure 2 – Research stages. Source: Prepared by the authors (2025).

3.1 Specification of analytical requirements

The first stage of the research involved defining analytical categories to be extracted from the selected scientific articles based on the methodological guidelines established for systematic literature reviews. Eight analytical categories were defined to guide the extraction and systematization of data: (i) research objectives, (ii) identified theoretical or scientific gaps, (iii) adopted methodology, (iv) main findings, (v) recognized limitations, (vi) presented conclusions, (vii) recommendations for future research, and (viii) critical evaluation of the study.

In addition to defining the analytical scope, we established the use of neutral, objective, and predominantly descriptive language, deliberately excluding superlative adjectives and value judgments. This guideline aims to ensure impartiality in presenting data, thereby reinforcing clear argumentation and compliance with the principles of rigor and transparency that govern the production of excellent science.

Based on this analytical structure, the documents were preprocessed, and their content was systematically extracted as described in the following section.

3.2 Preprocessing and content extraction

Following the outlined methodological structure, the scientific documents were preprocessed to organize and prepare the textual data for systematic analysis. The articles, which were previously stored in digital format (PDF), underwent automated content extraction using the PyPDFLoader library. This library is part of the LangChain Community ecosystem and is widely used in text mining and processing.

This technology decomposed the documents into coherent textual units while respecting the original pages' logical and semantic structure. The careful segmentation of the texts ensured informational integrity was preserved, which is fundamental to guaranteeing the traceability and reliability of the extracted data.

Organizing the content into structured blocks facilitated the subsequent application of natural language processing (NLP) techniques, enabling precise alignment between the empirical data and the analytical categories previously defined. This approach reflects best practices in data curation and processing in Information Science, particularly regarding managing, representing, and retrieving information in digital environments.

3.3 Modeling the analysis agent

Following the methodological flow, the third stage focused on modeling a specialized computational agent designed to perform the role of scientific article analyst. This agent was implemented using the CrewAI library, which is a framework for orchestrating autonomous agents based on natural language models, or Large Language Models (LLMs). The library enables the creation of agents with specific profiles that can act collaboratively or individually when executing complex cognitive tasks. This is achieved by configuring customized objectives, roles, and analytical behaviors.

In this research context, CrewAI was integrated with the GPT-4 model via the LangChain OpenAI interface to develop an agent with a well-defined scope of action. The configuration included explicitly defining analytical objectives, the application context (analysis of scientific literature), and methodological guidelines aligned with the categories established in the previous stage of data extraction and curation.

To ensure greater control over the agent's interpretive conduct and preserve methodological consistency, we disabled task delegation between multiple agents. This decision aimed to mitigate unwanted heuristic variations, ensuring the cognitive stability of the analytical instance and promoting greater uniformity in the application of textual interpretation criteria.

3.4 Task Design and Automated Execution

The fourth stage involved outlining the cognitive tasks and automating the analyses of the computational agent that had been previously modeled. According to the operational architecture of the CrewAI library, each scientific article was conceived as an independent analytical unit encapsulated as an instance of the Task class.

In this context, we adopted a controlled text fragmentation model, associating each task with an extract from the document of up to 5,000 characters. This value was empirically defined to optimize the performance of the language model while preserving the semantic cohesion of the analyzed content. This level of detail allowed the agent to process the data in informative chunks while maintaining a balance between cognitive load and interpretive context.

The tasks were allocated to the analysis agent within the management structure of the Crew object, the coordinating core of the autonomous agents' activities. The analyses were executed using the kickoff method, which triggers the interaction between the agent and the content and activates the analytical cycle according to the previously defined configuration parameters.

This process ensured the replicability of the analyses and traceability of the results, adhering to good systematization and methodological control practices required in computational Information Science studies. Additionally, using the Crew structure to manage analytical tasks increased the robustness of the execution flow, enabling accurate monitoring of the agent's performance and recording of the outputs generated in each interaction.

3.5 Generation and validation of results

The final stage of the automated process involved systematizing and validating the results produced by the computational agent. After each analytical task was completed, the extracted data was serialized in YAML (YAML Ain't Markup Language) format. YAML was chosen for its structural readability and widespread adoption in data interoperability and persistence flows. UTF-8 encoding was used to ensure lexical integrity and compatibility with storage and text reading systems in multiple computing environments.

The generated outputs were automatically stored in a predefined directory with standardized nomenclature and version control to ensure traceability of the results. The system performs an automated integrity check for each write operation, issuing status messages and, in case of error, recording informative logs with technical data for diagnosis and auditing.

To ensure methodological compliance, the authors of the research conducted a manual audit of the agent's performance. This audit entailed verifying a sample of the generated files, paying special attention to the alignment between the extracted results and the analytical parameters and guidelines defined during the agent configuration stage. The audit observed aspects such as adherence to analytical categories, descriptive consistency, fidelity to the original textual content, and respect for established semantic limits.

Additionally, human intervention will extend beyond the technical audit of the system to the critical validation of the findings, as described in the next section. This stage includes the qualitative analysis of responses produced by AI, promoting cross-verification between artificial intelligence and human judgment. This ensures not only technical robustness but also the epistemological credibility of the results.

3.6 Population and sampling

This research investigated scientific publications linked to the field of information science, with an emphasis on studies addressing the methodological practices of literature reviews, knowledge representation, and information processing. The sample consisted of two articles published in RDBCI (Revista Digital de Biblioteconomia e Ciência da Informação, or Digital Journal of Library Science and Information Science), which is based in Campinas, São Paulo, Brazil.

Articles were selected through intentional sampling based on thematic relevance to the research objectives and availability in full digital format, which is indispensable for automated computer processing.

The analysis aimed to verify an artificial intelligence agent's ability to interpret, synthesize, and establish comparisons between scientific publications considering the principles and methods applied in Information Science. Selecting articles from a recognized scientific journal ensured the methodological quality and theoretical representativeness of the documents, contributing to the robustness and reliability of the results.

3.7 Instruments and Techniques for Data Collection and Analysis

The main data collection tool used in this investigation was an autonomous computational agent developed and configured specifically for this purpose, as described in previous sections. The agent was programmed to extract textual content from the selected articles in a structured manner, using a standardized output model based on previously defined analytical categories as a reference.

We validated the extracted data through cross-analysis with the original documents to ensure semantic fidelity and respect authorial integrity. This procedure aimed to ensure that the agent operated in accordance with the ethical and legal principles of using academic content, thereby avoiding interpretive distortions or copyright violations.

Data analysis used a qualitative approach focused on verifying interpretive consistency, textual clarity, and alignment with analytical guidelines. Thus, the analytical process sought to integrate the technical precision of automated extraction with the epistemological rigor characteristic of information science to promote a critical, contextualized interpretation of the findings.

3.8 Technologies and tools used

The computational architecture developed for this research was designed using a modular approach to achieve scalability, reproducibility, and compatibility with automated, artificial intelligence-assisted text analysis pipelines. It was implemented in Python 3.13 because it is widely adopted in the scientific community and has a robust ecosystem focused on developing applications in artificial intelligence and data science.

The architecture consists of four main modules integrated to enable complete processing of scientific articles, from reading PDF files to generating analytical results in a structured manner. Figure 3 – Computational Architecture – Illustrates the components and their respective functions.

Computer Architecture
Figure 3 – Computer Architecture. Source: Prepared by the authors (2025).

The extraction and preprocessing module used the PyPDFLoader library from the LangChain Community ecosystem to read and segment scientific articles in PDF format. This tool converted documents into structured textual objects while preserving the integrity of the original content.

The task orchestration and agent definition module was implemented using the CrewAI library to enable the modeling of autonomous agents and coordination of their analytical actions. Each agent was configured according to specific profiles defined in accordance with established analytical requirements.

The inference and textual analysis module integrated the GPT-4 model through the langchain_openai interface, enabling the controlled generation of responses from customized prompts. This module was the core of the architecture and was responsible for semi-automating the analysis of content and producing structured responses in accordance with the principles of neutral language and originality.

Finally, the persistence and execution control module serialized the results in YAML format with UTF-8 encoding to ensure data traceability and integrity. Standard Python libraries managed directories, verified file creation, and issued status messages at the end of each operation.

Integrating these modules created a continuous, automated workflow from document ingestion to generating structured results. The proposed architecture is designed to be reusable in different analytical contexts and adaptable to other document types. It has the potential to support large-scale, systematic studies with artificial intelligence–based agents.

3.9 Ethical considerations and Limitations and bias control

Strict ethical guidelines were adopted to ensure scientific integrity. The computational agent was explicitly instructed to avoid literally reproducing any excerpts from the analyzed documents. To ensure compliance with good practices in automated scientific production, paraphrasing strategies with high textual originality (level 10/10) were used.

The main identified limitation refers to dependence on the GPT-4 model's interpretive capabilities, which can result in variations in textual extraction quality. To mitigate this, we applied formal style guidelines, vocabulary delimitation, and a rigid analytical structure. Using a standardized output model aimed to reduce inconsistencies and increase the replicability of the methodology.

4 RESULTS

This section presents the results of the applied research according to the defined methodology. The objective of this study was to develop and evaluate a computational architecture based on artificial intelligence agents for the automated analysis of scientific articles in the field of information science. The research employed a qualitative, exploratory, and descriptive approach structured as an applied study with technological validation.

Two comparative tables were created, one for each article published in RDBCI (Revista Digital de Biblioteconomia e Ciência da Informação) in Campinas, SP. The first article, "Artificial intelligence in bibliographic surveys in scientific databases: Comparing search expressions in ChatGPT, Copilot, and Gemini," was analyzed using a specific comparative table. The second article, "Technological development and innovation in knowledge management," was presented in its table.

The first article, authored by Antonio Carlos Picalho, Gisele Rosa de Oliveira, and Adriana Stefani Cativelli, compares three artificial intelligence tools used for developing bibliographic search strategies. The second article, by Rafael Gutierres Castanha, Fernanda Bochi dos Santos, and Augusto Júnior Macucule, addresses technological development and innovation in knowledge management through patentometric analysis. In both studies, a human audit was performed to verify the accuracy of each extracted and compared item, ensuring the reliability of the results.

The chart has three columns. The first column is called "Dimension" and lists the different categories of analysis. The second column, "AI Analysis (Output - File - YAML)," details the responses generated by the artificial intelligence agent and represented in YAML file format. The third column, "Author Analysis," presents the interpretations of the human authors, enabling comparison between the AI outputs and the analyses performed by experts. This format facilitates visualization and comparison of the contributions of the AI agent and the authors' conclusions.

Chart 2 — Comparison – Article 1
Dimension AI analysis (Output - file - YAML) Authors' Analysis
Objectives The study aimed to examine the potential of three artificial intelligence tools (ChatGPT-4, Copilot, and Gemini) in executing direct commands related to the creation of search expressions in scientific databases. The agent correctly identified the purpose of the article, validated by the excerpts: 'The purpose of this article was not to make a theoretical contribution to the field [...], but rather to execute the potential of three AI tools when executing direct commands related to the formation of search expressions and .... search expressions.'
Gap The study addressed the gap in understanding the performance of different artificial intelligence tools in crafting search expressions, a crucial task in libraries and reference services. The agent correctly identified the gap in the study, validated by excerpts that highlight the absence of comparative research on the use of generative AI in the construction of search expressions, such as: 'the research is innovative in that it demonstrates in practice the potential use of generative AI tools...' and the growing demand for support in the development of search strategies.
Methodology The study was characterized as applied, empirical, and comparative research. Three artificial intelligence tools were selected: Chat GPT-4, Copilot, and Gemini. Descriptors, free terms, and search expressions were selected based on a fictitious research objective. Prompts were used to indicate what the tools should return in relation to the research, and the analysis focused on evaluating the understanding of the commands and the existence or absence of syntax errors. The agent correctly identified the methodology as "applied, empirical, and comparative research." However, in future versions, actions could be incorporated that more clearly demonstrate the "veracity" and "operationalization of the empirical nature," such as the explanation of "evaluation criteria," "comparison metrics," and "external validation of the outputs generated by the tools."
Results The study found that, in more mechanical requests, ChatGPT and Copilot performed better, with little or no distortion. However, in more contextual requests, Gemini performed better. Errors were observed in Boolean operators and other advanced search operators, as well as the execution of unsolicited actions. The article highlights variations in the performance of AI tools: ChatGPT and Copilot performed better in mechanical tasks, while Gemini excelled in contextual commands. Errors in Boolean operators and unsolicited actions were also reported. The agent correctly identified these aspects; however, its response was descriptive, without emphasizing the critical relevance of this limitation for practical applicability.
Limitations The study acknowledged that, although artificial intelligence tools are useful for repetitive and corrective tasks, they do not produce highly sensitive search expressions on their own, requiring supervision and adjustments before the strategy can be employed. The agent correctly identified the study's central limitation by recognizing that artificial intelligence tools, while useful, do not generate highly sensitive search expressions without supervision. His analysis is in line with the text, which defines AIs as "great allies" but which "require supervision and adjustments before the strategy can be employed." The response accurately reflects this methodological limitation, considered one of the main conclusions of the study.
Conclusion The study concluded that artificial intelligence tools, while useful, still require supervision and adjustments to produce highly sensitive search expressions, highlighting the importance of the human role in developing search strategies. The agent correctly recognized the need for human supervision, but his analysis was superficial in that it did not delve deeper into a central point of the study: the importance of the role of information professionals and the interaction between humans and AI in search strategies.
Future Research The study suggests that future research could focus on improving the sensitivity of artificial intelligence tools in the development of search expressions, as well as exploring the integration of these tools into other aspects of library reference services. The agent identified some of the study's suggestions, such as improving AIs and integrating them into referral services, but omitted important points, such as comparison with other scientific AIs and the need for training, which limits the scope of the analysis.
Critical Evaluation The study provided a useful analysis of the performance of different artificial intelligence tools in crafting search expressions. However, it could have benefited from a larger sample of search expressions and a more in-depth analysis of the errors found. In addition, the inclusion of other artificial intelligence tools could have provided a more comprehensive comparison. The agent correctly identified technical limitations, such as the need for a larger sample and the inclusion of other AI tools, but its analysis was superficial. As authors, we highlight the relevance of the topic, the human role in information mediation, and practical suggestions for future research—points that were absent from the automated response, which still lacks interpretive depth.

Source: Survey data (2025).

The agent analyzed in the study performed satisfactorily in extracting central information from the article and correctly identifying the objectives, gaps, methodology, and main conclusions. Based on explicit excerpts, the agent validated that the article aimed to "examine the potential of three AI tools when executing direct commands related to the formation of search expressions" and that the main gap was the absence of comparative studies in this field. The methodology was correctly identified as "applied, empirical, and comparative research." However, the agent did not delve deeper into analyzing the "veracity" or "operationalization of the empirical nature" without detailing the criteria, metrics, or forms of validation used.

The agent acknowledged the main findings, such as the distinct performance of the tools in mechanical and contextual commands, but the analysis remained descriptive without analytical categorization or performance indicators. Additionally, the absence of visual representations and a comparative structure limited the clarity and usefulness of the presentation. The study's limitations were clearly identified, particularly the need for human supervision. However, the agent barely explored the importance of this mediation.

Suggestions for future research were only partially addressed and did not consider comparisons with other AIs focused on scientific research or the need for specific training. In summary, while the automated analysis showed technical consistency, it still lacks conceptual depth. This highlights the importance of human analysis for broader and more critical interpretations.

Next, we will analyze Article 2, "Technological and Innovation Development in Knowledge Management," which explores technological aspects in the field of knowledge management. The details of the study are below.

Chart 3 — Comparison – Article 2
Dimension AI analysis (Output - file - YAML) Authors' Analysis
Objectives The main objective of the study was to analyze technological development and innovation in knowledge management, specifically through the production of patents in the area. The authors confirm that the objective of the article was correctly identified: to analyze technological development and innovation in knowledge management based on patent production. The objective is clearly defined in the introduction: "The central objective is to analyze technological development and innovation based on patents related to knowledge management."
Gap The study addressed the gap in understanding the role of patents in knowledge management and how they contribute to technological development and innovation. The agent correctly identified the gap in the study, evidenced by excerpts that highlight the need to understand the role of patents in knowledge management and their contribution to technological development and innovation. This gap is made explicit in the research problem and objectives and reinforced in the conclusions, which highlight the importance of analyzing patent production to identify trends and guide future strategies in the area.
Methodology The study used a patentometric approach, with the search term "knowledge management" in the Derwent Index Innovation database. Data related to patents on knowledge management were collected, totaling 1,311 results. The analysis included the temporal evolution of patent applications, the main areas of patents, competition between international patent classifications, and cooperation between organizations or inventors. The agent correctly identified that the study adopts a patentometric approach to analyze patent production in knowledge management. However, he made conceptual errors by including information from the results section in the methodological description, such as classification codes and recurring organizations. In addition, he did not detail essential aspects of operationalization, such as selection criteria, filtering, and categorization of data extracted from the Derwent Index Innovation, revealing an incomplete understanding of methodological procedures.
Results The study found an increase in patent applications in Knowledge Management between 1992 and 2024. The areas of knowledge with the highest concentration are engineering and computer science and the most representative international patent classification codes are: G06N, G06F, G06Q, and H04L. The main collaborations occurred between IBMC, Hitachi Ltd., Hewlett-Packard Company, and Oracle. The agent correctly identified the main results of the study, such as the growth of patents in knowledge management, the areas of greatest concentration, the most frequent classification codes, and the main institutional collaborations. However, their analysis remained descriptive, without delving into implications or contextualizing the findings in the field of innovation and knowledge management.
Limitations The study did not explicitly discuss its limitations, but it can be inferred that the analysis was restricted to the Derwent Index Innovation database, which may have excluded relevant patents from other databases. The agent correctly recognized the limitation regarding the exclusive use of the Derwent database but did not address the absence of a critical analysis of the findings. The presentation of the results was descriptive, without exploring their implications for knowledge management. The automated evaluation was technically adequate but limited in terms of interpretative depth.
Conclusion The study concluded that patent applications in knowledge management are booming, with some organizations standing out more than others do. The patents mainly refer to the development of artifacts and/or industrial processes related to Engineering and Computing. The agent correctly addressed the main points of the conclusion, such as the growth in patent applications and the predominance of the Engineering and Computing fields. However, the conclusion could be enriched with an analysis of the factors driving this growth, as well as a critical reflection on the organizations highlighted and the strategic relevance of the technological areas involved.
Future Research The study suggests further analysis of patents in knowledge management, possibly expanding the research to other databases and considering other variables, such as the impact of these patents on the market and society. The agent correctly identified directions for future research, such as expanding to other databases and delving deeper into variables such as social and economic impact. However, he did not address important suggestions from the study, such as the analysis of the Triple Helix, the comparison between developed and developing countries, and research in emerging sectors. These points are fundamental to understanding knowledge management and its relationship with innovation in different contexts.
Critical Evaluation The study provides an interesting insight into the role of patents in knowledge management. However, the lack of explicit discussion about the limitations of the research and the absence of a more in-depth analysis of the impact of these patents limit the generalizability of the results. The agent correctly identified the main points of the conclusion but did not delve into the implications of the findings or mention the absence of a critical discussion of the limitations. Their analysis was adequate but limited in terms of interpretation, highlighting the need for human mediation for a more comprehensive reading.

Source: Survey data (2025).

The agent correctly identified the objectives, gap, methodology, and conclusions in the second article, thus validating the intention to analyze technological development and innovation in knowledge management through patent production. However, the analysis lacked an in-depth examination of the operationalization of the research, such as the selection criteria for the data, and failed to detail important aspects, such as the "veracity" of the research. The agent correctly recognized the main findings in the results, but the analysis was descriptive and failed to contextualize the findings adequately within the fields of innovation and knowledge management. The absence of analytical categorization and visual representations limited the clarity of the results. The agent recognized the study's limitations, such as its exclusive use of the Derwent database, but did not explore their implications. The agent correctly suggested areas for future research but failed to address crucial issues, such as analyzing the Triple Helix and comparing developed and developing countries. Overall, the analysis was technically coherent but lacked conceptual depth, highlighting the need for critical human interpretation.

The results obtained by the artificial intelligence agent in the overall evaluation of the two articles reveal the potential and limitations of using such technologies to interpret and synthesize scientific articles in the field of information science. While the agent performed satisfactorily in many areas, such as identifying objectives and extracting key information, the analysis showed a need for greater interpretive depth and contextualization. The absence of a critical approach to limitations and suggestions for future research highlights the importance of human mediation, which enriches interpretations and broadens conclusions. The discussion section will next explore these issues, addressing the implications of the findings and possibilities for improving methodologies.

5 CONCLUSION

The objective of this study was to propose and evaluate the use of an artificial intelligence (AI) agent based on language models to automatically analyze scientific articles in the field of information science. The results indicated that the agent could correctly identify the articles' relevant structural elements, such as objectives, research gaps, methodology, results, and suggestions for future studies. This ability confirms the potential of AI as a support tool for repetitive, structured tasks such as the initial reading and categorization of textual data in systematic literature reviews.

However, critical analysis revealed important limitations. The agent's performance was descriptive but lacked depth in analytical and conceptual aspects, particularly when interpreting the implications of findings and formulating complex inferences. These limitations demonstrate that, while the technology offers valuable assistance to researchers, qualified human mediation is still necessary to provide theoretical, critical, and contextual depth to the automated analysis.

From a theoretical standpoint, this work advances discussions on integrating intelligent systems and research methods in information science. It suggests promising ways to automate methodological steps without compromising the quality of scientific interpretation. In practice, it emphasizes the strategic use of AI agents in activities such as the initial screening of articles, identifying patterns, and extracting metadata, with the goal of optimizing time and effort in investigative processes.

Using the CrewAI, langchain_openai, and PyPDFLoader libraries for technical implementation proved effective in enabling the semi-autonomous reading of academic documents and the systematic extraction of information according to predefined analytical criteria. Using the YAML model as the output format standardized the results and facilitated their integration with subsequent analysis flows. Ethical concerns were addressed by defining guidelines for neutral language, textual originality, and respect for the authors' copyrights.

One limitation is that the analysis was applied to a limited number of articles, which restricts the generalizability of the findings. Additionally, agent performance depends directly on the quality and clarity of the analyzed text, which can compromise results in less structured or poorly written studies.

Future research should expand the empirical base, test the proposed architecture in other scientific domains, and investigate ways to combine the performance of multiple agents with different specializations. Additionally, it is recommended that metrics be developed to evaluate not only the accuracy of the extractions, but also the interpretive depth of the generated responses.

In conclusion, integrating artificial intelligence agents into the scientific analysis process can represent a significant methodological advancement, particularly when combined with reflective practices and human judgment. This study provides a solid basis for the ethical, responsible, and epistemologically sound use of AI in producing and organizing scientific knowledge.

📚 Referências Bibliográficas

  1. BANDEIRA, G. L.; TORTATO, U. The future avenues of artificial intelligence and decision-making in business management. Revista de Administração Mackenzie, São Paulo, v. 25, n. 6, eRAMD240081, 2024. Special Issue. DOI: 10.1590/1678-6971/eRAMD240081.
  2. BAEZA-YATES, R.; RIBEIRO-NETO, B. Modern information retrieval: the concepts and technology behind search. 2. ed. Boston: Addison-Wesley, 2011.
  3. CARRERA, A. et al. Cognitive system for autonomous underwater intervention. Pattern Recognition Letters, Amsterdam, v. 67, p. 91-99, 2015. DOI: 10.1016/j.patrec.2015.06.010.
  4. DESCHAMPS, P. A. G.; MARTINS, L. P. Competências informacionais para o uso ético e crítico da inteligência artificial generativa. Perspectivas em Ciência da Informação, Belo Horizonte, v. 29, n. 1, p. 86-110, 2024. Disponível em: https://www.scielo.br/j/pci/a/GVCW7KbcRjGVhLSrmy3PCng. Acesso em: 8 abr. 2025.
  5. ENGESTRÖM, Y. Learning by expanding: an activity-theoretical approach to developmental research. Helsinki: Orienta-Konsultit, 1987.
  6. GARTNER. Intelligent agent in AI. Stamford, 2025. Disponível em: https://www.gartner.com/en/articles/intelligent-agent-in-ai. Acesso em: 11 fev. 2025.
  7. GATES, B. AI agents. Seattle, 2025. Disponível em: https://www.gatesnotes.com/ai-agents. Acesso em: 10 fev. 2025.
  8. HENDRYCKS, D. Introduction to AI safety, ethics, and society. 1. ed. San Francisco: Center for AI Safety, 2024.
  9. HOLLAN, J.; HUTCHINS, E.; KIRSH, D. Distributed cognition: toward a new foundation for human-computer interaction. ACM Transactions on Computer-Human Interaction, New York, v. 7, n. 2, p. 174–196, 2000. DOI: 10.1145/353485.353487.
  10. LANHAM, M. AI agents in action: developing autonomous intelligence with deep reinforcement learning. Shelter Island, NY: Manning Publications, 2024.
  11. MITCHELL, Melanie et al. Artificial intelligence: A guide for thinking humans. New York: Farrar, Straus and Giroux, 2019.
  12. MOREIRA, J. R.; NASCIMENTO, C. P.; RIBEIRO, J. B. P. Ciência da Informação e Inteligência Artificial: reflexões sobre o ChatGPT e a informação científica. Tecnologias em Projeção, v. 14, n. 2, p. 1-13, 2023. Disponível em: https://projecaociencia.com.br/index.php/Projecao4/article/view/2244. Acesso em: 8 abr. 2025.
  13. RUSSELL, S. et al. Intelligence artificielle: une approche moderne. 4. éd. Paris: Pearson France, 2021.
  14. SANTANA, C. A. De Leibniz às máquinas sociais: uma visão histórica do conhecimento e da informação. Perspectivas em Ciência da Informação, Belo Horizonte, v. 26, n. 4, p. 3-28, 2021. DOI: 10.1590/1981-5344/3554.
  15. TURING, A. Computing machinery and intelligence. 1950. Disponível em: https://courses.cs.umbc.edu/471/papers/turing.pdf. Acesso em: 15 jan. 2025.
  16. ZUBOFF, S. The age of surveillance capitalism. In: TURNER, B. S.; RYSER, M. (org.). Social theory re-wired: new connections to classical and contemporary perspectives. 3. ed. New York: Routledge, 2023. p. 203-213.

📰 Informações da Publicação

Tipo Artigo
Periódico Revista Digital de Biblioteconomia e Ciência da Informação

📄 Dados Gerais

Idioma do trabalho Português
Licença CC BY
Tradução disponível English

👤 Sobre os Autores

📎 Anexos

Acknowledgments

The authors would like to thank the Federal University of Minas Gerais (UFMG).

This study was funded by the Coordination for the Improvement of Higher Education Personnel – Brazil (CAPES), Financial Code 001.

Author contributions

SANTOS, R. F.: Conceptualization, Data Curation, Formal Analysis, Investigation, Methodology, Project Administration, Resources, Software, Validation, Visualization, Writing – original draft.

AGANETTE, E. C.: Supervision, Validation, Writing – review & editing.

Declarations

Conflict of interest
The authors declare the absence of any aspects that represent a conflict of interest in relation to the manuscript.
Ethical approval
Not applicable.
Availability of data and material
Not applicable.
Image
Author's collection.
Translation
S. Iacovacci Translation Service

Nota

Referência