Ir al contenido principal

Guía para el uso académico de la inteligencia artificial: Uso ético de la IA

En esta guía conocerás las principales herramientas de Inteligencia Artificial (IA) generativa para el apoyo a la investigación. Además, podrás leer sobre los usos, limitaciones y recomendaciones para el uso de herramientas como ChatGPT en búsquedas bibli

Usos de la IA en la investigación

Foto de Andy Kelly en Unsplash

Para mantener las normas éticas de transparencia, apertura, honestidad y atribución justa de crédito en la redacción de un trabajo científico, y con el fin de fomentar la integridad, la reproducibilidad y el rigor de la investigación, es necesario hacer una reflexión ética sobre el uso de las herramientas de Inteligencia Artificial Generativa, y, si procede, consultar los usos permitidos y no permitidos con las editoriales o personas responsables de nuestro trabajo académico.

En los casos en los que esté permitido el uso de estas herramientas, es necesario describir de forma honesta y transparente su uso en la sección de metodología.  Además, pueden indicarse las partes del texto afectadas mediante el uso de citas y referencias.

En ningún caso las herramientas de Inteligencia Artificial Generativa pueden ser consideradas como autores o acreditadas en la sección de reconocimientos, ya que no pueden ser considerados responsables moral o legalmente.  

Uso ético de la IA

El uso académico de herramientas de inteligencia artificial generativa, como ChatGPT, debe ajustarse a las políticas institucionales y a las orientaciones específicas del equipo docente de cada asignatura. Es fundamental verificar, antes de emplear estas tecnologías, si su utilización está permitida en las actividades formativas, evaluativas o de investigación, ya que puede variar en función del contexto académico.

Tal como se establece en la Guía de uso de las herramientas de Inteligencia Artificial Generativa para el estudiantado, elaborada por el Vicerrectorado de Innovación Educativa de la UNED, este tipo de herramientas pueden utilizarse durante los estudios, pero no está permitido incluir contenido generado por IA en las pruebas de evaluación continua ni en los trabajos de fin de grado o máster (TFG o TFM), salvo que el profesorado lo autorice expresamente. Además, se advierte que un uso no autorizado o inadecuado de estas tecnologías podrá considerarse deshonestidad académica. Ante cualquier duda, se recomienda consultar directamente al equipo docente.

En los casos en que su uso esté autorizado, es imprescindible explicitar de forma transparente en el trabajo académico las herramientas empleadas, los prompts utilizados y los resultados obtenidos. Esta información debe incorporarse en apartados como la metodología, materiales, agradecimientos u otros equivalentes. Asimismo, se recomienda adjuntar un informe de uso que detalle la interacción con la IA.

Por último, la guía institucional hace hincapié en la necesidad de evaluar críticamente los contenidos generados mediante IA, prestando especial atención a la veracidad de los datos y la fiabilidad de las referencias o citas, que deben ser siempre revisadas y verificadas por quien redacta el trabajo.

A la hora de preparar un manuscrito para enviar a una revista o a una editorial para ser publicado en forma de artículo, capítulo de libro, o similar, hemos de tener especial cuidado con las políticas editoriales sobre el uso de herramientas de IA generativa. Cada vez más editoriales han publicado instrucciones explícitas sobre los usos permitidos y no permitidos en la elaboración de sus artículos.

En líneas generales, las herramientas de IA generativa no deben considerarse como coautores de nuestro manuscrito, ya que no puede ser considerado responsable del contenido del texto y se espera que las ideas y datos utilizados en la publicación sean originales, aunque sí conviene mencionarlas en la sección de metodología.

Sin embargo, existen diversidad de matices. MDPI, por ejemplo, permite el uso de estas herramientas para la elaboración de textos y especifica que su uso ha de ser mencionado en los reconocimientos y en la sección metodología. Elsevier, por su parte, restringe de manera exclusiva el uso de estas herramientas a fines de mejorar la legibilidad y comprensión del documento.

Wiley también ha desarrollado una política sobre el uso de la IA. Sus directrices establecen que las herramientas de IA no pueden figurar como autoras, que los autores humanos mantienen la responsabilidad total del contenido, y que cualquier uso de IA debe declararse claramente indicando la herramienta, la versión y la finalidad. Además, Wiley exige que los autores evalúen los riesgos asociados al uso de IA (como precisión, propiedad intelectual o confidencialidad) y prohíbe el empleo de IA para generar datos de investigación o manipular resultados sin supervisión humana.

Para conocer más sobre las políticas de las diferentes editoriales científicas respecto al uso permitido de esta herramienta consulte este documento elaborado por Ricardo Tavira Sánchez.

De manera similar, existe una gran variedad de situaciones para la creación de imágenes, figuras, código, etc., por lo que se recomienda siempre consultar la política específica de la editorial y actuar en toda circunstancia con honestidad, transparencia y rigor.

En los casos en los que está permitido el uso de herramientas de Inteligencia Artificial Generativa, además de indicarse su uso en la sección de metodología, puede ser conveniente indicar en qué secciones del texto se han usado las herramientas a través de citas y referencias.

Para citar una herramienta de este tipo, será necesario indicar:

  • El nombre del lenguaje o herramienta.
  • La versión que se utiliza.
  • El creador (compañía que creó el lenguaje o herramienta).
  • La petición (prompt) que ha generado la respuesta.
  • La fecha en la que se generó el contenido.

Algunos estilos de citación han elaborado recomendaciones para citar la información procedente de herramientas de IA. En esta entrada de InvestigaUNED puedes ver diferentes ejemplos de citas y referencias.

Ejemplo de cita y referencia con APA

El manual de estilo de la American Psychological Association (APA) incluye indicaciones para elaborar citas y referencias:

Cita textual:

When prompted with “Is the left brain right brain divide real or a metaphor?” the ChatGPT-generated text indicated that although the two brain hemispheres are somewhat specialized, “the notation that people can be characterized as ‘left-brained’ or ‘right-brained’ is considered to be an oversimplification and a popular myth” (OpenAI, 2023).

Referencia:

OpenAI. (2023). ChatGPT (Mar 14 version) [Large language model]. https://chat.openai.com/chat

Declaración de uso de herramientas de inteligencia artificial (ACRL) 

La Association of College and Research Libraries (ACRL) ha desarrollado el Artificial Intelligence Disclosure (AID) Framework, una guía para fomentar la transparencia en el uso de herramientas de inteligencia artificial (IA) en trabajos académicos. Este marco propone una declaración estructurada que va más allá de la simple citación, detallando cómo se ha utilizado la IA en el proceso de elaboración del trabajo. 

Los apartados recomendados por el AID Framework, que puede incorporarse al final de los trabajos académicos, son: 

  • Herramienta utilizada: indica el nombre de la herramienta de IA empleada (por ejemplo, ChatGPT, Claude, DeepL, Grammarly). 
  • Propósito del uso: describe brevemente para qué utilizó la herramienta de IA (por ejemplo, generación de ideas, elaboración de esquemas, redacción de borradores, revisión de gramática, traducción). 
  • Prompts o instrucciones proporcionadas: incluye los comandos o preguntas específicos que se ingresaron en la herramienta de IA. 
  • Uso del contenido generado: explica cómo se integró el contenido generado por la IA en el trabajo final (por ejemplo, si se utilizó directamente, se modificó o se empleó como referencia). 
  • Revisión y edición: indica si el contenido generado por la IA fue revisado o editado antes de su inclusión en el trabajo. 
  • Limitaciones y consideraciones éticas: menciona cualquier limitación identificada en el uso de la herramienta de IA y las consideraciones éticas tenidas en cuenta. 

Ejemplo 1: Uso básico para corrección gramatical 

  • Herramienta utilizada: Grammarly 
  • Propósito del uso: se empleó para la corrección ortográfica y gramatical del texto antes de su entrega. 
  • Prompts o instrucciones proporcionadas: el documento completo fue cargado en la plataforma y se aplicaron las sugerencias automáticas. 
  • Uso del contenido generado: se aceptaron sugerencias relacionadas con puntuación, ortografía y reformulación de frases por claridad. 
  • Revisión y edición: todas las sugerencias fueron revisadas manualmente antes de ser aplicadas. 
  • Limitaciones y consideraciones éticas: no se utilizó la herramienta para generar contenido nuevo ni para alterar el significado del texto original. 

 

 Ejemplo 2: Uso avanzado para generación de ideas y redacción 
  • Herramienta utilizada: ChatGPT (versión GPT-4) 
  • Propósito del uso: se utilizó para generar ideas iniciales, estructurar el esquema del trabajo y redactar un borrador preliminar del apartado introductorio. 
  • Prompts o instrucciones proporcionadas: 
    • “Resume en 300 palabras el concepto de ciudadanía digital para estudiantes de secundaria.” 
    • “Proporciona una estructura para un ensayo académico sobre alfabetización informacional.” 
  • Uso del contenido generado: el contenido propuesto fue utilizado como punto de partida. La redacción final fue elaborada y reescrita por el autor, manteniendo solo algunas frases de la versión generada. 
  • Revisión y edición: todo el contenido generado por la IA fue revisado críticamente, contrastado con fuentes académicas y reescrito para adecuarlo a los objetivos del trabajo. 
  • Limitaciones y consideraciones éticas: se evitó el uso automático del contenido sin revisión. Se asume la responsabilidad plena sobre la autoría y la veracidad de los contenidos presentados.

 

 Ejemplo 3 Apoyo en la redacción académica de un artículo en inglés

  • Herramienta utilizada: ChatGPT (GPT-4, OpenAI) 
  • Propósito del uso: la herramienta se utilizó como apoyo en la redacción preliminar de algunos fragmentos del apartado metodológico, así como para reformular ciertos pasajes del texto con el fin de mejorar la claridad expresiva en inglés académico. 
  • Prompts o instrucciones proporcionadas: 
    • “Reformulate this paragraph in academic English, suitable for a peer-reviewed article in social sciences.” 
    • “Generate a draft description of qualitative content analysis based on Mayring’s approach.” 
    • “What are typical ethical considerations in ethnographic research on family structures?” 
  • Uso del contenido generado: algunas frases y formulaciones sugeridas por la herramienta fueron adaptadas y reformuladas por el autor, integrándose en secciones específicas del manuscrito. Ningún contenido fue incluido de forma literal sin revisión. 
  • Revisión y edición: todo el material generado fue verificado por el autor, contrastado con la bibliografía citada y revisado para asegurar precisión conceptual y coherencia con el marco teórico del estudio. 
  • Limitaciones y consideraciones éticas: la herramienta no fue utilizada para generar resultados de investigación, análisis de datos ni redacción de conclusiones. Se tuvo especial cuidado en evitar cualquier forma de plagio o dependencia acrítica del contenido generado. La responsabilidad de la autoría y del contenido final recae exclusivamente en el firmante del artículo.  

 

Esta estructura busca promover la transparencia y la integridad académica, permitiendo a los lectores comprender el alcance y la naturaleza del uso de herramientas de IA en la elaboración del trabajo. Es recomendable incluir esta declaración al final del documento, después de las referencias bibliográficas. 

Para más detalles sobre el AID Framework, consulta el artículo original de ACRL 

Modelo de declaración de uso de IA
“He utilizado la herramienta de Inteligencia Artificial [nombre] para [especificar: generar ideas, redactar un borrador inicial, revisar estilo, traducir, etc.] y he revisado y verificado cuidadosamente los resultados generados. La información ha sido contrastada con fuentes académicas tradicionales. El uso de IA se declara en cumplimiento de las normas éticas e institucionales.”

El documento Living Guidelines on the Responsible Use of Generative AI in Research (Comisión Europea, abril 2025) establece 10  recomendaciones principales

  1. Transparencia: declarar siempre el uso de IA generativa en cualquier fase de la investigación (redacción, análisis, revisión, etc.).
  2. Responsabilidad humana: las personas siguen siendo las responsables finales de los resultados y decisiones, no las herramientas.
  3. Integridad científica: evitar el uso de IA para generar datos o resultados falsos o sin verificación.
  4. Respeto a la propiedad intelectual: comprobar licencias, derechos de autor y fuentes de datos usados para entrenar o alimentar la IA.
  5. Privacidad y protección de datos: no introducir información personal ni confidencial en sistemas de IA sin garantías adecuadas.
  6. Evaluación crítica: verificar la fiabilidad, sesgos y limitaciones de las salidas generadas por IA antes de utilizarlas.
  7. Formación y alfabetización: garantizar que el personal investigador reciba formación continua en uso ético y técnico de la IA.
  8. Políticas institucionales: las universidades y centros deben definir normas claras sobre qué usos de IA están permitidos y cómo deben citarse.
  9. Ética y supervisión: incluir mecanismos de supervisión y revisión ética del uso de IA generativa en los proyectos financiados.
  10. Revisión y mejora continua: actualizar periódicamente las prácticas conforme evolucione la tecnología y el marco legal europeo.

Consejos prácticos

  • Verificar siempre la información: contrastar con fuentes académicas fiables.
  • Analizar el origen: reflexionar sobre qué datos entrenaron al modelo y qué sesgos puede arrastrar.
  • Documentar el uso: señalar en qué parte del proceso se empleó la IA (por ejemplo, apoyo en redacción, ideas iniciales, traducción).
  • Aplicar el marco ETHICAL, una guía clara y práctica con siete principios:
  1. Examinar políticas institucionales.
  2. Reflexionar sobre impactos sociales.
  3. Comprender cómo funciona la herramienta.
  4. Indicar de forma explícita el uso en trabajos académicos.
  5. Evaluar críticamente cada resultado.
  6. Usar versiones seguras y autorizadas.
  7. Revisar las condiciones de uso y licencias.

El marco ETHICAL fue elaborado por un equipo liderado por Lynette Pretorius, y otros autores, y se presentó en el artículo titulado “Navigating Ethical Challenges in Generative AI-Enhanced Research: The ETHICAL Framework for Responsible Generative AI Use”, el 11 de diciembre de 2024

A modo de conclusión

La IA es una herramienta, no una autora: protege siempre los datos personales, evita subir materiales con copyright sin permiso y cita cuando la IA haya contribuido de forma sustantiva. Verifica cifras, fechas y referencias en fuentes primarias antes de usarlas y, si surgen dudas o casos complejos, contacta con la biblioteca para una orientación rápida.

Checklist:

  • ¿Anonimizaste o excluiste datos sensibles?

  • ¿Indicaste el uso de IA en tu trabajo?

  • ¿Comprobaste los datos clave con fuentes fiables?