Uso de la inteligencia artificial
Manifiesto editorial de Infonomy sobre el uso de inteligencia artificial (IA)
Julio de 2025
En la revista Infonomy creemos que la inteligencia artificial (IA) es una herramienta poderosa para el avance de la ciencia, la edición académica y el trabajo intelectual en general. Lejos de verla como una amenaza, consideramos que bien utilizada puede enriquecer la producción científica.
Por ello, hemos adoptado la siguiente postura editorial:
1. Uso permitido y recomendado
Autoras y autores pueden utilizar herramientas de IA generativa (como ChatGPT, Gemini, Claude u otras) en cualquier etapa de la elaboración de sus artículos: desde la búsqueda de información hasta la redacción, el resumen, el análisis de datos o la traducción. Animamos a hacerlo de manera consciente y responsable, sabiendo aprovechar su potencial.
2. Responsabilidad final humana
Todo contenido enviado a Infonomy debe ser revisado, corregido y validado por los propios autores. La IA puede ayudar, pero no sustituye la responsabilidad intelectual y científica del autor humano, quien responderá íntegramente por la veracidad, originalidad, coherencia y valor del texto.
3. No exigimos declaración del uso de IA
A diferencia de algunas editoriales o comités, en Infonomy no exigimos que se declare el uso de IA en los artículos. Consideramos que el uso de herramientas tecnológicas (como procesadores de texto, traductores automáticos o software estadístico) forma parte natural del trabajo académico actual, y lo importante es el resultado final.
4. Sin atribución de autoría a la IA
La IA no puede figurar como coautora de un artículo, ya que no tiene responsabilidad ética ni capacidad legal. Esta es también la posición del Committee on Publication Ethics (COPE) y de las principales editoriales científicas.
5. Evaluación editorial y revisión por pares
Como siempre, los textos serán evaluados por el equipo editorial y por revisores externos. Si detectamos incoherencias, errores graves, invención de datos o referencias, el artículo será rechazado, independientemente de si fueron generados por una persona o por una IA.
6. Una etapa de aprendizaje compartido
La IA está aún en desarrollo y también lo están nuestras políticas. Este manifiesto es dinámico: puede evolucionar conforme maduren las herramientas y aumente nuestra experiencia editorial con ellas. Invitamos a nuestra comunidad a debatir abierta y constructivamente sobre el tema.
En resumen:
La IA no es el enemigo. Lo será la negligencia, el fraude o el uso irresponsable –pero eso ya existía antes de la IA–. Apostamos por una ciencia más libre, más eficaz, y también más humana, donde los editores e investigadores sepan usar bien las herramientas de su tiempo.