Una tesis de grado o posgrado es el punto culminante de cualquier formación académica. Es un ejercicio de síntesis, crítica y aporte original al conocimiento elaborado por el tesista. Sin embargo, la llegada de modelos de lenguaje de gran escala (LLM), como ChatGPT, ha introducido una variable disruptiva.
Si bien estas herramientas prometen una eficiencia sin precedentes, su uso indiscriminado podría invalidar la elaboración de la tesis en sí misma. El dilema principal está en cómo integrar estas tecnologías manteniendo la integridad científica y la solidez metodológica. A continuación se abordan algunos puntos para usar la IA y se brindan consejos para no cruzar la línea roja.
1. El dilema de la integridad y los riesgos de la automatización
El primer gran obstáculo es la erosión del pensamiento crítico. De acuerdo con Rezaei et al. (2024), la dependencia excesiva de la IA en la redacción académica no solo facilita el plagio, sino que fomenta la fabricación de información y una pasividad cognitiva preocupante. Cuando la máquina deja de ser un apoyo, para convertirse en el autor intelectual, el tesista pierde la capacidad de defender su propio trabajo en una sustentación.
| 💡 Tip: Delega tareas operativas a la IA, pero nunca le entregues la autoría intelectual; recuerda que tu eres el único responsable de la tesis. |
2. Transparencia: el contrato ético del investigador
La probidad académica no solo implica no copiar, sino declarar la procedencia de cada idea. Tarish y Al Mubarak (2025) enfatizan que los estudiantes deben ser instruidos en directrices institucionales claras que exijan la declaración explícita del uso de IA en la sección de metodología. Ocultar el uso de ChatGPT se considera una falta ética grave, equivalente a la omisión de un colaborador humano o una fuente bibliográfica.
| 💡 Tip: Documenta y declara el uso de herramientas de IA en tu sección de Metodología; la transparencia es el mejor antídoto contra las sospechas de deshonestidad académica. |

3. La IA como andamiaje metodológico
La IA debe entenderse como el andamiaje de una construcción: una estructura temporal y externa que facilita el acceso a niveles elevados de síntesis, pero que es retirada una vez que la obra alcanza su propia estabilidad.
Yusuf, et al. (2024) proponen un marco donde la IA se utiliza para mejorar la síntesis de textos complejos y potenciar las habilidades de pensamiento crítico, siempre bajo la dirección del autor humano. En este modelo, el tesista utiliza la IA para estructurar índices, resumir literatura preliminar o corregir la cohesión gramatical. No obstante, Spirgi et al. (2024) advierten que el uso excesivo tiende a la homogeneización del lenguaje, eliminando la voz única y el matiz argumentativo que caracteriza a una tesis de alto nivel.
| 💡 Tip: Usa la IA para estructurar y pulir la arquitectura de tu texto, pero asegúrate de que el análisis crítico y la interpretación de los datos conserven tu aporte original. |
4. Detección avanzada y supervisión humana
Las universidades han respondido con un arsenal tecnológico cada vez más sofisticado para la detección de la IA. Herramientas tradicionales como Turnitin ahora conviven con modelos neuronales diseñados específicamente para el entorno académico.
Qorich y El Ouazzani (2025) explican que la detección moderna ya no busca solo similitud, sino patrones semánticos y estilísticos propios de los algoritmos de IA. Sin embargo, persisten limitaciones ante el parafraseo complejo o la traducción cruzada. Esto refuerza la necesidad de que los supervisores realicen una evaluación cualitativa profunda de los borradores, comparando la evolución del estilo de escritura del alumno a lo largo del tiempo.
| 💡 Tip: Mantén un portafolio de evidencias de tus borradores y versiones previas; la mejor defensa contra un reporte de similitud es poder demostrar la evolución orgánica de tu redacción. |

5. Alfabetización digital y el futuro de la tesis
La solución de largo plazo no es la prohibición, sino la educación técnica y ética. Shaukat et al. (2025) sugieren que las instituciones deben fomentar un enfoque participativo. Esto implica que estudiantes y docentes trabajen juntos en la creación de guías éticas personalizadas para cada disciplina.
La alfabetización en IA permite al tesista entender las limitaciones del modelo (como las "alucinaciones" de datos o citas falsas) y verificar rigurosamente cada fuente mencionada por la IA antes de incluirlas en su bibliografía final (Kim, 2024).
| 💡 Tip: Conviértete en un auditor de la IA; verifica manualmente cada referencia y dato generado para evitar que las "alucinaciones" del algoritmo comprometan la validez de tu investigación. |
En definitiva, usar ChatGPT en la tesis es caminar sobre un puente estrecho. La línea roja se evita mediante la validación manual, el juicio crítico y, sobre todo, la asunción de responsabilidad total por el contenido presentado.
Como indican Van Rensburg y Reedy (2024), la IA puede ser un aliado valioso o un enemigo destructivo dependiendo de la madurez ética de quien la maneja. Una tesis de alto impacto hoy no es la que ignora la IA, sino la que la domina para elevar la calidad del pensamiento humano, sin sustituirlo jamás.
Si deseas convertirte en un investigador preparado para los desafíos del siglo XXI, capaz de dominar las herramientas emergentes sin comprometer la integridad académica, solicita más información sobre la Maestría en Investigación y Publicación Científica de la Escuela de Posgrado de la Universidad Continental.
Referencias:
Kim, S. J. (2024). Research ethics and issues regarding the use of ChatGPT-like artificial intelligence platforms by authors and reviewers: a narrative review. Science Editing, 11(2), 96–106. https://doi.org/10.6087/kcse.343
Qorich, M., & El Ouazzani, R. (2025). Detection of artificial intelligence-generated essays for academic assessment integrity using large language models. Expert Systems with Applications, 291, 128405. https://doi.org/10.1016/j.eswa.2025.128405
Rezaei, M., Zamani, M., & Mozaffari, H. (2024). Uses and Misuses of ChatGPT as an AI-Language Model in Academic Writing. QICAR 2024. [2]
Rezaei, M., Salehi, H., & Tabatabaei, O. (2024, 29th February). Uses and Misuses of ChatGPT as an AI-Language Model in Academic Writing, 10th International Conference on Artificial Intelligence and Robotics (QICAR), Qazvin, Iran. https://doi.org/10.1109/QICAR61538.2024.10496607
Shaukat, F., Kamal, Z., Khan, R. A., Sajjad, M., Tassaduq, I., & Ambreen,S. (2025). A Participatory Approach to Develop Ethical Guidelines for Generative Artificial Intelligence. Pakistan Armed Forces Medical Journal, 75(5), 1029-1034. https://doi.org/10.51253/pafmj.v75i5.13606
Spirgi, L., Seufert, S., Delcker, J. and Heil, J. (2024, 2nd May). Student Perspectives on Ethical Academic Writing with ChatGPT: An Empirical Study in Higher Education, Proceedings of the 16th International Conference on Computer Supported Education (CSEDU 2024), Angers, France. https://doi.org/10.5220/0012555700003693
Tarish, H.M., Al Mubarak, M. (2025). The Ethics of ChatGPT in Academia. In: Al Mubarak, M. (eds) Sustainable Digital Technology and Ethics in an Ever-Changing Environment. Studies in Systems, Decision and Control, vol 237. Springer, Cham. https://doi.org/10.1007/978-3-031-86708-8_14
Van Rensburg, H., & Reedy, N. (2024, 24th October). ChatGPT in Higher Education: A Comprehensive Study of the Literature. Friend or Foe?, Proceedings of the 23rd European Conference on e-Learning (ECEL 2024), Oporto, Portugal. https://doi.org/10.34190/ecel.23.1.3126
Yusuf, A., Awamleh, A., Al-Khasawneh, M., & Al-Mousa, N. (2024). Implementing a proposed framework for enhancing critical thinking skills in synthesizing AI-generated texts. Thinking Skills and Creativity. 53, 101619 https://doi.org/10.1016/j.tsc.2024.101619
.png)





