jueves, 16 de febrero de 2023

Coscorrón al #ChatGPT

Cd. Victoria, Tam.- La inteligencia artificial nos tumba la puerta en todos los órdenes de la vida cotidiana, a la par de la robótica. Al respecto hay realidades innegables, verdades a medias y también mitos.
En el campo de la información y del conocimiento ha sido tema en las últimas semanas por el lanzamiento de dos proyectos paralelos, el #ChatGPT recién adquirido por MICROSOFT y #Bard (antes #Lambda) desarrollo original de GOOGLE.
Dos gigantes. En ambos la charla es, literalmente, con una máquina. Un servidor programado para responder de la manera más exacta posible a nuestros requerimientos, preguntas, encargos, empleando un tono amable y ponderado que emula al trato humano.
Inteligencia generativa, también le llaman (Generative Pre-trained Transformer). Le atribuyen dotes milagrosas, más por sus posibilidades que por los hechos contundentes. Puede escribir artículos periodísticos, ensayos cortos y hasta libros. También pinta y hace poemas.
En fin, el día lunes 13 de febrero pasado hice una consulta. Elegí un tema de la política tamaulipeca que conozco bien y me permitiría medir el grado de exactitud en sus tareas.
Tenía muy presente que el día 14 de febrero se conmemoraba el natalicio de un amigo ya fallecido. Por ello mi pregunta se enfocó en el tema. En forma de instrucción precisa le pedí a #ChatGPT lo siguiente: 
“Escribe un texto de 900 palabras sobre el asesinato del doctor RODOLFO TORRE CANTÚ.”
La respuesta me decepcionó. En un espacio relativamente corto (900 palabras es el equivalente al 80% de esta columna) detecté de inmediato un par de errores imperdonables para cualquier ficha biográfica.
Día y lugar de su fallecimiento. Me dijo que el candidato del PRI murió el 4 de junio de 2010, lo cual es rotundamente falso. Fue el día 28.
Y luego apuntó como lugar del suceso la carretera entre Matamoros y Reynosa. Otra mentira: el lamentable episodio tuvo lugar entre Ciudad Victoria y el aeropuerto local.
El robot además menciona como posible propósito del atentado “que fue perpetrado por grupos del narcotráfico o por personas con intereses políticos o económicos en el estado de Tamaulipas.”
Explicación, por cierto, tan amplia que resulta ambigua. Muy disperso su abanico de posibilidades: delincuencia, motivo político, factor económico. Quien mucho abarca, nada aporta, pensé.

INTERACCIÓN POSTERIOR
Le dirigí entonces una réplica señalando sus incorrecciones y (para mi sorpresa) en un par de segundos aceptó las fallas, incorporó mi enmienda y planteó lo siguiente: 
“Mis disculpas por los errores en mi respuesta anterior. Tiene razón, el doctor RODOLFO TORRE CANTÚ fue asesinado el 28 de junio de 2010, no el 4 de junio. Además, estaba viajando por la carretera de Ciudad Victoria al aeropuerto, no por la carretera Reynosa-Matamoros. Gracias por corregir mis errores.”
O sea que nomás me siguió la corriente, al incorporar (y dar por buenos) los datos que le ofrecí. ¿Y si yo hubiera mentido o proporcionado elementos distintos pero incorrectos, se habría comportado de la misma manera?
Cabe pensar que sí. Entre otras razones por la rapidez de su enmienda (instantánea o casi) que no parece haber consultado más fuentes, sino únicamente actualizado su ficha con la corrección que le proporcioné.
En descargo de sus errores, debo decir que #ChatGPT todavía no tiene acceso pleno a la red Internet. Sin embargo está en marcha la sinergia con el buscador BING, hoy en fase experimental; de la misma manera en que su competidor #Bard nace anclado a la red de GOOGLE.
Sus erratas, sin embargo, parecen muy humanas. No me queda duda que fue una fuente de carne y hueso la que se equivocó con la fecha y lugar del suceso referido líneas arriba.
Conversé al respecto con #ChatGPT y entre otras cosas me dijo, a manera de justificación: 
“Mi conocimiento se basa en el texto que se encontraba disponible hasta 2021, por lo que mi información puede no estar totalmente actualizada con respecto a los eventos y desarrollos más recientes. Sin embargo, estoy diseñado para responder a una amplia variedad de preguntas y puedo proporcionar información precisa y confiable sobre temas generales y conocimientos comunes.”

LA COMPETENCIA TAMBIÉN
Su similar #Bard de GOOGLE cometió pifias iguales o peores durante su presentación el pasado 6 de febrero ante un grupo de expertos, cuando uno de ellos le preguntó: "¿Qué nuevos descubrimientos del telescopio espacial JAMES WEBB puedo contarle a mi hijo de 9 años?".
Sus respuestas fueron desmentidas por la comunidad astronómica americana que las consideró inexactas o hasta equivocadas. Gente de Harvard y de la Universidad de California, principalmente.
Quizás en un corto tiempo la conexión plena de la Inteligencia Artificial con los motores de búsqueda permita trascender vulnerabilidades y fallas de los simples mortales. 
La delicada función de valorar la fuente, abundar en otras, cruzar la información y (muy importante) citar el origen de los datos, al menos de los fundamentales.
Mientras tanto cabe la sensatez. Mucha gente hoy día se encuentra entusiasmada con la idea de que #ChatGPT y #Bard pueden ser capaces de reemplazar al escritor. Lo mismo al estudiante que hace sus tareas que al redactor de textos periodísticos o publicitarios, articulista, columnista, reportero o copy writer.
Mire usted, si las respuestas van a ser como la que yo encontré haciendo una pregunta tan simple, pues hombre, lejos de ayudarnos, podrían confundirnos más.
Y peor, pues mezclan certezas con aproximaciones, lo veraz y lo verosímil. Paridas con preñadas. Cuestión de imaginar que pasaría si alguien tuviera que tomar decisiones importantes en base a dichas respuestas. Que su seguridad, la salud o la vida dependieran de ello.
Si yo fuera profesor y un alumno me presenta como trabajo el citado texto del doctor TORRE, sin duda tendría que reprobarlo, por equivocarse en dos datos fundamentales: día y lugar. Nada menos que el cuándo y el dónde, categorías kantianas, por cierto básicas en el ABC del periodismo.
Interesante el tema para educadores y jefes de redacción. Filosóficamente sirve para preguntarnos si lo estrictamente humano se agota en funciones cognitivas básicas como razonar, aprender y resolver problemas o somos algo más. En definitiva, me inclino por lo segundo.