9 de febrero de 2023
artificial intelligence. Pixabay / Geralt, CC BY-SA

Javier Morales Mediano, Universidad Pontificia Comillas y Diana Loyola Chávez, Universidad Pontificia Comillas

Una participación del 49 % en la compañía OpenAI, propietaria de ChatGPT, ha sido recientemente adquirida por Microsoft por 10 000 millones de dólares.

ChatGPT es una plataforma de inteligencia artificial con un modelo de procesamiento del lenguaje natural (NLP, por sus siglas en inglés) que genera texto coherente y natural en respuesta a una variedad de consultas. Para ello, el modelo ha sido entrenado con un gran corpus de texto. Esto permite su utilización para tareas como la generación de texto, la respuesta a preguntas y el procesamiento del lenguaje natural en general.

Uso académico: problemas de integridad y originalidad

El uso de modelos de lenguaje como ChatGPT para trabajos académicos plantea una serie de preocupaciones éticas. Aunque pueden hacer que las tareas de investigación y escritura sean más eficientes, permitiendo a los académicos enfocarse en aspectos de su trabajo más complejos y de mayor valor añadido, surgen dudas sobre la integridad y originalidad del trabajo que se está produciendo.

Una de las principales preocupaciones éticas con el uso de modelos de lenguaje para el trabajo académico es el problema del plagio. Al utilizar un modelo para generar texto, se vuelve mucho más fácil para las personas presentar el trabajo de otros como propio. Simplemente parafraseando de manera automática, es decir, diciendo lo mismo con otras palabras y otro orden sintáctico, el mismo trabajo puede hacerse pasar por otro.

Esto puede llevar a una devaluación del arduo trabajo y dedicación que se requiere para producir trabajos de investigación. Lo que a su vez también puede socavar la credibilidad de la comunidad académica en su conjunto.

La propia detección del plagio es mucho más difícil. Esta dificultad se produce porque el texto generado por el modelo probablemente será diferente de la fuente original. Como mencionaba el investigador Daniel González Padilla, los modelos de lenguaje generativo como ChatGPT pueden ser utilizados para generar textos plagiados cuyos contenidos son siempre distintos a los originales y, por tanto, difíciles de detectar.

Falta de originalidad

Otra preocupación ética es que el uso de modelos de lenguaje para el trabajo académico podría conducir a una homogeneización de las ideas y los puntos de vista.

Si las personas se basan en estos modelos, es posible que el texto generado sea menos diverso que el producido únicamente mediante esfuerzo humano. Esto podría conducir a un estancamiento de las ideas y una falta de pensamiento crítico. Un tipo de pensamiento especialmente necesario dentro de la comunidad académica.

Falta de contexto e implicaciones

Además, los modelos de lenguaje no están diseñados para proporcionar un contexto completo para la información que genera, como el propio ChatGPT reconoce. El modelo genera texto basado en la entrada y sus datos de entrenamiento, pero no tiene la capacidad de entender las implicaciones éticas, culturales o políticas de la información proporcionada.

Esta falta de reflexión podría conducir a la propagación de información falsa, sesgos o incluso discriminación. Todas estas preocupaciones éticas deben ser tenidas en cuenta antes de utilizar estos modelos para el trabajo académico.

También sería conveniente desarrollar directrices y mejores prácticas para garantizar la integridad y originalidad del trabajo que se está produciendo.

Inteligencia con conciencia

El filósofo Juan Arana afirma que la conciencia es y seguirá siendo un misterio inabordable para la ciencia. La conciencia moral nos hace libres para la acción moral y trasciende la experiencia meramente cognitiva.

Si los nuevos y sofisticados avances llegarán a generar conciencia es algo tan incierto como resolver el enigma de por qué los humanos la tenemos, continúa Arana. Así, advierte de la necesidad de detenernos a pensar sobre los avances científicos y sus consecuencias. Para ello, apela precisamente a la conciencia, afirmando que es una facultad irreductible a los sistemas de información técnicos. Los seres humanos tendremos que pensar sobre nosotros mismos y nuestras producciones en nuestro quehacer profesional y personal.

¿Una ayuda?

Como quizá todavía no se haya notado, este artículo ha sido escrito con la ayuda de ChatGPT. La finalidad ha sido doble: probar el modelo e invitar al lector a plantearse algunas cuestiones.

Inicialmente, utilizamos ChatGPT lanzándole la pregunta sobre cuáles serían los dilemas éticos que su propia utilización podría acarrear. Enseguida nos dio la idea de los tres problemas presentados.

Luego quisimos profundizar en uno de ellos y nos llevó a uno de los autores citados. Por último, tomamos sus propias respuestas como referencias en algunas partes del artículo.

Podemos decir que la prueba fue un éxito, pero no pudimos dejar de hacernos las siguientes cuestiones que creemos trascienden el mundo académico: ¿debemos acudir al uso de estas aplicaciones para lograr satisfacer una cada vez mayor exigencia de nuestro trabajo? ¿Cuáles serían los límites de este uso en caso de ser aceptado?

Inteligencia con o sin conciencia

En palabras del filósofo François Vallaeys, debemos preguntarnos cuál es la combinación idónea entre inteligencia sin conciencia (como sería ChatGPT) y la inteligencia con conciencia (la nuestra). Sin querer posicionarnos respecto a las cuestiones planteadas, sí es necesaria la reflexión sobre su uso, utilidad y consecuencias.

Según Vallaeys, no podemos ignorar las herramientas que nos ayudan en la simplificación de algunas tareas. Pero su uso se debe completar con la experiencia personal y empática del autor del trabajo. Es esta aportación la que permitirá profundizar en el diálogo y la reflexión crítica.

Se trata de buscar equilibrios y posibles soluciones entre todos. Respuestas que vayan más allá de salidas simplistas. Sólo así salvaremos lo diferente, lo asombroso, lo no trivial y verdadero de la condición humana.The Conversationhttp://theconversation.com/es/republishing-guidelines —>

Javier Morales Mediano, Codirector del DBA in Management and Technology y Profesor del Departamento de Marketing, Universidad Pontificia Comillas y Diana Loyola Chávez, Profesora de Filosofía. Ética aplicada y Filosofía práctica, Universidad Pontificia Comillas

Este artículo fue publicado originalmente en The Conversation. Lea el original.