La inteligencia artificial y la ética en las publicaciones científicas: un desafío emergente

Autores/as

DOI:

https://doi.org/10.47796/ing.v7i00.1098

Resumen

La creciente adopción de herramientas de escritura asistida por inteligencia artificial (IA), como ChatGPT, ha generado un debate intenso en la comunidad científica. Si bien estas tecnologías prometen mejoras en la eficiencia y la claridad de la comunicación científica, también plantean dilemas éticos y prácticos que afectan la integridad académica. Por un lado, la IA puede estructurar argumentos complejos y optimizar procesos; por otro, su uso irresponsable podría introducir sesgos y reducir la profundidad analítica de los estudios. Sin embargo, como señala Fiorillo (2024), las inexactitudes metodológicas no son exclusivas de la era de la IA, y su aplicación responsable puede fortalecer la precisión y reproductibilidad de las publicaciones.
Uno de los principales desafíos asociados con la integración de la IA en la investigación científica radica en las anomalías generadas por esta tecnología. Gulumbe (2024) advierte que las metodologías actuales para detectar contenido generado por IA son insuficientes, lo que subraya la urgencia de desarrollar herramientas avanzadas y de implementar estándares editoriales rigurosos. Para mitigar estos riesgos, es esencial que las revistas académicas fomenten prácticas éticas, exijan la divulgación transparente del uso de IA y capaciten a revisores y editores en el manejo de estas tecnologías.
El impacto de la IA en el ámbito educativo también refleja preocupaciones éticas similares. Acosta-Enriquez et al. (2024) estudiaron las actitudes y preocupaciones de estudiantes de educación superior en Perú hacia ChatGPT, confirmando que, aunque el conocimiento de la herramienta no garantiza su adopción ética, la educación y las políticas institucionales pueden jugar un papel clave. De manera similar, Zainuddin et al. (2024) destacan la importancia de desarrollar directrices inclusivas que promuevan un uso equitativo y responsable de la IA en la enseñanza de idiomas, fomentando la formación y la conciencia ética en diferentes niveles educativos.
En la educación superior, Slimi & Villarejo-Carballido (2024) identificaron que la IA puede personalizar el aprendizaje y fortalecer la integridad académica mediante herramientas guiadas, pero advirtieron sobre la necesidad de cumplir estrictamente con las leyes éticas. Este enfoque ético se extiende más allá del ámbito educativo. Eaton (2024) propone un marco basado en derechos humanos para abordar la mala conducta relacionada con la IA, instando a las instituciones a priorizar la equidad y limitar el uso de tecnologías de vigilancia.
En el contexto de las publicaciones científicas, la adopción de la IA debe equilibrar la innovación con la preservación de valores éticos fundamentales. La IA, como señala Sahlool (2024) en su análisis del marketing, debe considerarse una herramienta asistencial en lugar de un fin en sí misma, lo que requiere una planificación estratégica y un enfoque multidisciplinario para maximizar sus beneficios sin comprometer la integridad.
En conclusión, la incorporación de la IA en las publicaciones científicas y académicas plantea oportunidades y desafíos que no deben ignorarse. Aunque estas herramientas tienen el potencial de transformar la investigación y la educación, su implementación debe regirse por principios éticos rigurosos y políticas claras que protejan la integridad académica. La comunidad científica debe liderar el desarrollo de estándares y promover un debate continuo sobre las implicaciones éticas de la IA, asegurando que esta tecnología sea un aliado, y no un obstáculo, en la búsqueda del conocimiento.

Descargas

Los datos de descargas todavía no están disponibles.

Descargas

Publicado

2024-12-27

Cómo citar

Zegarra Alvarado, N. J. (2024). La inteligencia artificial y la ética en las publicaciones científicas: un desafío emergente. INGENIERÍA INVESTIGA, 7(00). https://doi.org/10.47796/ing.v7i00.1098

Número

Sección

Editorial