Editorial 2025

 

La inteligencia artificial y la ética en las publicaciones científicas: un desafío emergente

 

 

La creciente adopción de herramientas de escritura asistida por inteligencia artificial (IA), como ChatGPT, ha generado un debate intenso en la comunidad científica. Si bien estas tecnologías prometen mejoras en la eficiencia y la claridad de la comunicación científica, también plantean dilemas éticos y prácticos que afectan la integridad académica. Por un lado, la IA puede estructurar argumentos complejos y optimizar procesos; por otro, su uso irresponsable podría introducir sesgos y reducir la profundidad analítica de los estudios. Sin embargo, como señala Fiorillo (2024), las inexactitudes metodológicas no son exclusivas de la era de la IA, y su aplicación responsable puede fortalecer la precisión y reproductividad de las publicaciones.

Uno de los principales desafíos asociados con la integración de la IA en la investigación científica radica en las anomalías generadas por esta tecnología. Gulumbe (2024) advierte que las metodologías actuales para detectar contenido generado por IA son insuficientes, lo que subraya la urgencia de desarrollar herramientas avanzadas y de implementar estándares editoriales rigurosos. Para mitigar estos riesgos, es esencial que las revistas académicas fomenten prácticas éticas, exijan la divulgación transparente del uso de IA y capaciten a revisores y editores en el manejo de estas tecnologías.

El impacto de la IA en el ámbito educativo también refleja preocupaciones éticas similares. Acosta-Enriquez et al. (2024) estudiaron las actitudes y preocupaciones de estudiantes de educación superior en Perú hacia ChatGPT, confirmando que, aunque el conocimiento de la herramienta no garantiza su adopción ética, la educación y las políticas institucionales pueden jugar un papel clave. De manera similar, Zainuddin et al. (2024) destacan la importancia de desarrollar directrices inclusivas que promuevan un uso equitativo y responsable de la IA en la enseñanza de idiomas, fomentando la formación y la conciencia ética en diferentes niveles educativos.

En la educación superior, Slimi & Villarejo-Carballido (2024) identificaron que la IA puede personalizar el aprendizaje y fortalecer la integridad académica mediante herramientas guiadas, pero advirtieron sobre la necesidad de cumplir estrictamente con las leyes éticas. Este enfoque ético se extiende más allá del ámbito educativo. Eaton (2024) propone un marco basado en derechos humanos para abordar la mala conducta relacionada con la IA, instando a las instituciones a priorizar la equidad y limitar el uso de tecnologías de vigilancia.

En el contexto de las publicaciones científicas, la adopción de la IA debe equilibrar la innovación con la preservación de valores éticos fundamentales. La IA, como señala Sahlool (2024) en su análisis del marketing, debe considerarse una herramienta asistencial en lugar de un fin en sí misma, lo que requiere una planificación estratégica y un enfoque multidisciplinario para maximizar sus beneficios sin comprometer la integridad.

En conclusión, la incorporación de la IA en las publicaciones científicas y académicas plantea oportunidades y desafíos que no deben ignorarse. Aunque estas herramientas tienen el potencial de transformar la investigación y la educación, su implementación debe regirse por principios éticos rigurosos y políticas claras que protejan la integridad académica. La comunidad científica debe liderar el desarrollo de estándares y promover un debate continuo sobre las implicaciones éticas de la IA, asegurando que esta tecnología sea un aliado, y no un obstáculo, en la búsqueda del conocimiento

 

 

 

 Dr. Noribal Jorge Zegarra Alvarado

Director Revista Ingeniería Investiga

Decano Facultad Ingeniería-UPT

 

Referencias Bibliográficas

 

 

 

Sahlool, N. (2024). Navigating the artificial intelligence frontier: Strategic imperatives for safeguarding brand integrity. Journal of Brand Strategy, 13(2), 123. https://doi.org/10.69554/uuxa3701

Gulumbe, B. H. (2024). Obvious artificial intelligence‐generated anomalies in published journal articles: A call for enhanced editorial diligence. Learned Publishing: Journal of the Association of Learned and Professional Society Publishers, 37(4). https://doi.org/10.1002/leap.1626

Acosta-Enriquez, B. G., Arbulú Ballesteros, M. A., Arbulu Perez Vargas, C. G., Orellana Ulloa, M. N., Gutiérrez Ulloa, C. R., Pizarro Romero, J. M., Gutiérrez Jaramillo, N. D., Cuenca Orellana, H. U., Ayala Anzoátegui, D. X., & López Roca, C. (2024). Knowledge, attitudes, and perceived Ethics regarding the use of ChatGPT among generation Z university students. International Journal for Educational Integrity, 20(1). https://doi.org/10.1007/s40979-024-00157-4

Eaton, S. E. (2024). Future-proofing integrity in the age of artificial intelligence and neurotechnology: prioritizing human rights, dignity, and equity. International Journal for Educational Integrity, 20(1). https://doi.org/10.1007/s40979-024-00175-2

Fiorillo, L. (2024). Confronting the demonization of AI writing: Reevaluating its role in upholding scientific integrity. Oral Oncology Reports, 12(100685), 100685. https://doi.org/10.1016/j.oor.2024.100685

Zainuddin, N., Suhaimi, N. A., Jaffar, M. N., Norwawi, N. M., Sahrir, M. S., Wan Ab Aziz Wan Daud, & Ghani, M. T. A. (2024). Responsible and ethical use of artificial intelligence in language education: A systematic review. Forum for Linguistic Studies, 6(5), 316–325. https://doi.org/10.30564/fls.v6i5.7092

Slimi, Z., & Villarejo-Carballido, B. (2024). Unveiling the potential: Experts’ perspectives on artificial intelligence integration in higher education. European journal of educational research, 13-2024(volume–13--4–october–2024), 1477–1492. https://doi.org/10.12973/eu-jer.13.4.1477