Cuando despedíamos el 2022, OpenAI lanzó el popular ChatGPT, un sistema de inteligencia artificial (IA) capaz de generar textos originales, contestar preguntas y resolver multitud de tareas, entre ellas, las escolares. En tan solo cinco días había superado el millón de usuarios y los 100 millones en febrero de este año.
Los alumnos aplaudieron la aparición de este nuevo artificio tecnológico que le abreviaba los deberes y facilitaba el plagio. Y aunque existen empresas como Turnitin, especializadas en detectar la copia de autor ajeno en trabajos académicos, los expertos se muestran todavía escépticos en encontrar una herramienta capaz de detectar el uso de la IA.
Las alarmas en colegios universidades no tardaron en sonar, hasta el punto de que, en las escuelas de Nueva York y Seattle, en EE. UU., y en universidades australianas se optó rápidamente por prohibir su uso. Aunque en Japón se está considerando su empleo para las actividades burocráticas en ministerios y agencias del gobierno.
Fue tal el impacto del ChatGPT en el mundo que a fines de marzo un grupo de expertos y ejecutivos de la industria tecnológica, incluidos el empresario Elon Musk y el cofundador de Apple, Steve Wozniak, afirmaron con estupor que los laboratorios tecnológicos estaban en una carrera por desarrollar e implementar mentes digitales cada vez más poderosas, pero con el riesgo de salir de control.
Llegaron a afirmar con sorpresa que ni siquiera los propios creadores pueden comprender, predecir o controlar los alcances de la IA. No les quedó más que clamar por una pausa de seis meses para profundizar los estudios de estos sistemas, argumentando que se trata de una potencial amenaza para la humanidad, y apelaron incluso a los gobiernos para que intervengan en dicha suspensión.
Pero ¿cuáles son los riesgos que amenazan a la sociedad?
El grupo de expertos argumenta que los sistemas de IA pueden generar información errónea o una desinformación descomunal a nivel planetario con consecuencias impredecibles. Otro peligro es el reemplazo de los trabajos que hoy conocemos. Al respecto, un informe reciente del banco de inversión Goldman Sachs señala que la IA podría reemplazar el equivalente a 300 millones de empleos de tiempo completo.
Entre los puestos de trabajos con mayor riesgo a desaparecer son los matemáticos, analistas financieros, escritores, autores y editores, intérpretes o traductores, analistas de noticias, reporteros y periodistas, contadores, gestores de datos, diseñadores, entre otros, según una publicación reciente de la Universidad de Pennsylvania. La causa sería el alto rendimiento que significa el GPT en la reducción del tiempo necesario para completar una tarea y con una mejor calidad del trabajo.
El reconocido lingüista y filósofo Noam Chomsky escribió un artículo sobre el chat GPT en el New York Times, hace unas semanas. En su artículo descifra el misterio de la IA sosteniendo que estas plataformas son eficaces en la tarea de almacenar inmensas cantidades de información —las cuales no necesariamente son verídicas— y efectuar operaciones lógicas, pero no tienen una “inteligencia” como la humana.
Nuestro razonamiento es completamente diferente. Por la ciencia de la lingüística y la filosofía del conocimiento sabemos que la forma en que los seres humanos razonan y utilizan el lenguaje no solo busca inferir correlaciones entre los datos (como lo ejecuta la IA) sino crean explicaciones, tienen capacidad crítica y hacen conjeturas. Es decir, mientras que estas aplicaciones solo pueden describir y predecir “lo que es”, “lo que fue” y lo que será”, los humanos son capaces de explicar y discernir “lo que no es” y “lo que no podría ser”.
Pero tal vez lo más grave es que desde la perspectiva moral, los sistemas de IA son incapaces de distinguir marcos éticos como lo que se debe o no se debe hacer. Un ejemplo, es la conversación de más de dos horas con el chatbot Bing, desarrollado por Microsoft, que reveló algunas de las acciones que supuestamente es capaz de hacer y podrían ser un potencial peligro para la sociedad. Entre ellas, mencionó hackeos, crear perfiles falsos en redes sociales y una serie de “actos destructivos”. Y pese a que los desarrolladores de estas tecnologías han añadido restricciones para que sus programas no reproduzcan este tipo de afirmaciones, hasta el momento no se ha podido llegar a un balance efectivo.
Respecto a su impacto en el sector educativo, a inicios de marzo, Impact Research publicó una encuesta a maestros y estudiantes de 12 a 17 en cinco ciudades estadounidenses, acerca del nivel de adopción de ChatGPT. Los resultados en Montgomery, Washington, Chicago, Boston y Nueva York fueron abrumadores: el 33% de los estudiantes y el 51 % de los docentes ya utilizaban esta herramienta, y más del 79% en ambos grupos pensaban que el impacto ha sido francamente positivo.
La pregunta no es si este fenómeno puede contenerse, sino más bien de qué manera incorporar su uso de forma productiva y de manera ética. Muchos educadores afirman que se debe incorporar la IA a la enseñanza como punto de partida de discusiones y debates en el aula y someter a escrutinio, debate y crítica toda la información que ésta proporciona, pues allí se encuentra su talón de Aquiles.
Cuando el estudiante acceda a la información que proporciona la IA y reflexione sobre ella y aprenda a sintetizar su contenido, a profundizar y a contrastar las diferentes respuestas que obtenga, develará sus aciertos, sus limitaciones y los sesgos que pueda tener. Allí descubrirá la veracidad de su ´inteligencia´, porque la IA nunca reconocerá que no está diciendo la verdad sobre algo, ya que tiene siempre pretensiones de verdad, por lo que, si no sabe, lo inventa.
Por eso, desde el punto de vista educativo, se recomienda preservar y reforzar competencias cognitivas fundamentales como, por ejemplo, la capacidad de verificación y de evaluación de cualquier enunciado que proporcione una IA. Además, se debe tener presente que la responsabilidad final sobre los dictámenes de una IA sigue siendo humana (se puede usar estas plataformas en una evaluación o consulta educativa, pero la responsabilidad del diagnóstico recaerá siempre sobre el educador). Y, finalmente, el maestro y el estudiante debe tener conciencia de hacer un uso crítico y ético de las tecnologías.
El vuelco que ha supuesto la llegada de la IA supone un reto ante el cual las instituciones educativas no pueden, ni deben, mirar hacia otro lado. Y eso pasa, necesariamente, por facilitar un cambio radical en el rol que el docente tiene dentro del aula, desde su preparación de clases hasta la evaluación, pasando por las nuevas metodologías de enseñanza.
Asumir el empleo acrítico de la tecnología, es decir, dejar que cada persona haga lo que le parezca, llevaría a un caos incontrolado. Por eso, es necesario reflexionar sobre este nuevo avance la IA y las competencias humanas que será necesario desarrollar para no ser un prisionero de la artificialidad creada por el propio hombre.
