
Foto de Andy Kelly en Unsplash
Para mantener las normas éticas de transparencia, apertura, honestidad y atribución justa de crédito en la redacción de un trabajo científico, y con el fin de fomentar la integridad, la reproducibilidad y el rigor de la investigación, es necesario hacer una reflexión ética sobre el uso de las herramientas de Inteligencia Artificial Generativa, y, si procede, consultar los usos permitidos y no permitidos con las editoriales o personas responsables de nuestro trabajo académico.
En los casos en los que esté permitido el uso de estas herramientas, es necesario describir de forma honesta y transparente su uso en la sección de metodología. Además, pueden indicarse las partes del texto afectadas mediante el uso de citas y referencias.
En ningún caso las herramientas de Inteligencia Artificial Generativa pueden ser consideradas como autores o acreditadas en la sección de reconocimientos, ya que no pueden ser considerados responsables moral o legalmente.
El uso académico de herramientas de inteligencia artificial generativa, como ChatGPT, debe ajustarse a las políticas institucionales y a las orientaciones específicas del equipo docente de cada asignatura. Es fundamental verificar, antes de emplear estas tecnologías, si su utilización está permitida en las actividades formativas, evaluativas o de investigación, ya que puede variar en función del contexto académico.
Tal como se establece en la Guía de uso de las herramientas de Inteligencia Artificial Generativa para el estudiantado, elaborada por el Vicerrectorado de Innovación Educativa de la UNED, este tipo de herramientas pueden utilizarse durante los estudios, pero no está permitido incluir contenido generado por IA en las pruebas de evaluación continua ni en los trabajos de fin de grado o máster (TFG o TFM), salvo que el profesorado lo autorice expresamente. Además, se advierte que un uso no autorizado o inadecuado de estas tecnologías podrá considerarse deshonestidad académica. Ante cualquier duda, se recomienda consultar directamente al equipo docente.
En los casos en que su uso esté autorizado, es imprescindible explicitar de forma transparente en el trabajo académico las herramientas empleadas, los prompts utilizados y los resultados obtenidos. Esta información debe incorporarse en apartados como la metodología, materiales, agradecimientos u otros equivalentes. Asimismo, se recomienda adjuntar un informe de uso que detalle la interacción con la IA.
Por último, la guía institucional hace hincapié en la necesidad de evaluar críticamente los contenidos generados mediante IA, prestando especial atención a la veracidad de los datos y la fiabilidad de las referencias o citas, que deben ser siempre revisadas y verificadas por quien redacta el trabajo.
A la hora de preparar un manuscrito para enviar a una revista o a una editorial para ser publicado en forma de artículo, capítulo de libro, o similar, hemos de tener especial cuidado con las políticas editoriales sobre el uso de herramientas de IA generativa. Cada vez más editoriales han publicado instrucciones explícitas sobre los usos permitidos y no permitidos en la elaboración de sus artículos.
En líneas generales, las herramientas de IA generativa no deben considerarse como coautores de nuestro manuscrito, ya que no puede ser considerado responsable del contenido del texto y se espera que las ideas y datos utilizados en la publicación sean originales, aunque sí conviene mencionarlas en la sección de metodología.
Sin embargo, existen diversidad de matices. MDPI, por ejemplo, permite el uso de estas herramientas para la elaboración de textos y especifica que su uso ha de ser mencionado en los reconocimientos y en la sección metodología. Elsevier, por su parte, restringe de manera exclusiva el uso de estas herramientas a fines de mejorar la legibilidad y comprensión del documento.
Wiley también ha desarrollado una política sobre el uso de la IA. Sus directrices establecen que las herramientas de IA no pueden figurar como autoras, que los autores humanos mantienen la responsabilidad total del contenido, y que cualquier uso de IA debe declararse claramente indicando la herramienta, la versión y la finalidad. Además, Wiley exige que los autores evalúen los riesgos asociados al uso de IA (como precisión, propiedad intelectual o confidencialidad) y prohíbe el empleo de IA para generar datos de investigación o manipular resultados sin supervisión humana.
Para conocer más sobre las políticas de las diferentes editoriales científicas respecto al uso permitido de esta herramienta consulte este documento elaborado por Ricardo Tavira Sánchez.
De manera similar, existe una gran variedad de situaciones para la creación de imágenes, figuras, código, etc., por lo que se recomienda siempre consultar la política específica de la editorial y actuar en toda circunstancia con honestidad, transparencia y rigor.
En los casos en los que está permitido el uso de herramientas de Inteligencia Artificial Generativa, además de indicarse su uso en la sección de metodología, puede ser conveniente indicar en qué secciones del texto se han usado las herramientas a través de citas y referencias.
Para citar una herramienta de este tipo, será necesario indicar:
Algunos estilos de citación han elaborado recomendaciones para citar la información procedente de herramientas de IA. En esta entrada de InvestigaUNED puedes ver diferentes ejemplos de citas y referencias.
Ejemplo de cita y referencia con APA
El manual de estilo de la American Psychological Association (APA) incluye indicaciones para elaborar citas y referencias:
Cita textual:
When prompted with “Is the left brain right brain divide real or a metaphor?” the ChatGPT-generated text indicated that although the two brain hemispheres are somewhat specialized, “the notation that people can be characterized as ‘left-brained’ or ‘right-brained’ is considered to be an oversimplification and a popular myth” (OpenAI, 2023).
Referencia:
OpenAI. (2023). ChatGPT (Mar 14 version) [Large language model]. https://chat.openai.com/chat
La Association of College and Research Libraries (ACRL) ha desarrollado el Artificial Intelligence Disclosure (AID) Framework, una guía para fomentar la transparencia en el uso de herramientas de inteligencia artificial (IA) en trabajos académicos. Este marco propone una declaración estructurada que va más allá de la simple citación, detallando cómo se ha utilizado la IA en el proceso de elaboración del trabajo.
Los apartados recomendados por el AID Framework, que puede incorporarse al final de los trabajos académicos, son:
Esta estructura busca promover la transparencia y la integridad académica, permitiendo a los lectores comprender el alcance y la naturaleza del uso de herramientas de IA en la elaboración del trabajo. Es recomendable incluir esta declaración al final del documento, después de las referencias bibliográficas.
Para más detalles sobre el AID Framework, consulta el artículo original de ACRL
“He utilizado la herramienta de Inteligencia Artificial [nombre] para [especificar: generar ideas, redactar un borrador inicial, revisar estilo, traducir, etc.] y he revisado y verificado cuidadosamente los resultados generados. La información ha sido contrastada con fuentes académicas tradicionales. El uso de IA se declara en cumplimiento de las normas éticas e institucionales.”
El documento Living Guidelines on the Responsible Use of Generative AI in Research (Comisión Europea, abril 2025) establece 10 recomendaciones principales
El marco ETHICAL fue elaborado por un equipo liderado por Lynette Pretorius, y otros autores, y se presentó en el artículo titulado “Navigating Ethical Challenges in Generative AI-Enhanced Research: The ETHICAL Framework for Responsible Generative AI Use”, el 11 de diciembre de 2024
La IA es una herramienta, no una autora: protege siempre los datos personales, evita subir materiales con copyright sin permiso y cita cuando la IA haya contribuido de forma sustantiva. Verifica cifras, fechas y referencias en fuentes primarias antes de usarlas y, si surgen dudas o casos complejos, contacta con la biblioteca para una orientación rápida.
Checklist:
¿Anonimizaste o excluiste datos sensibles?
¿Indicaste el uso de IA en tu trabajo?
¿Comprobaste los datos clave con fuentes fiables?