“ChatGPT no es un gran avance tecnológico, pero es un gran producto”
Darío Sandrone está sorprendido por la forma en que el ámbito educativo reaccionó a la aparición de ChatGPT. Sandrone es docente e investigador de la Escuela de Filosofía y de dos facultades de la UNC y dicta cursos de filosofía de la tecnología y sobre el enfoque sociotécnico de los procesos sociales, además de Su línea de investigar en torno a la ontología de los objetos técnicos y la teoría de las máquinas. Y en todos esos circuitos ha visto y oído reparos frente a la popularización de este modelo de lenguaje de inteligencia artificial, que puede escribir trabajos prácticos, papers y rendir exámenes. Se percibe como problemático, a partir de que podemos pedirle al algoritmo que haga un artículo sobre algún tema que esté investigando y lo va a hacer bastante bien, o incluso mejor que yo, señala. A mí me parece una preocupación acotada porque lo que puede hacer el ChatGPT es mucho más que eso.
-¿Qué fue lo que más te llamó la atención de este primer contacto entre los modelos de lenguaje impulsados por IA y el público en general?
-Me llamó mucho la atención la actitud de los docentes en todos los niveles, viéndose venir el problema de las producciones escritas que los alumnos van a poder hacer a partir del ChatGPT. Y preguntándose si ellos van a ser capaces de distinguir si se trata de un escrito hecho por una IA o el alumno. A eso lo vi en varios posteos de las redes sociales y en notas periodísticas. Se percibe como problemático, a partir de que podemos pedirle al algoritmo que haga un artículo sobre algún tema que esté investigando y lo va a hacer bastante bien, o incluso mejor que yo. A mí me parece una preocupación acotada porque lo que puede hacer el ChatGPT es mucho más que eso. Lo que a mí me interesó de todo eso es ver cuán problemática es la escritura para la educación desde Platón hasta el presente. Ya Platón se quejaba de los alumnos que usaban apuntes escritos porque consideraba que anotar era hacerle trampa al pensamiento. Y tres mil años después tenemos el mismo problema: los docentes ven en la escritura con algoritmos una trampa al pensamiento. He leído a gente muy capacitada y experta proponiendo volver a una situación donde el estudiante no esté en contacto con nada más que el docente como única forma del aprendizaje, lo que sería la posición platónica de hoy.
-Me recuerda a la temporada 4 de The Wire, cuando experimentan con un programa educativo para estudiantes revoltosos que se suspende para entrenarlos en rendir un examen estadual, priorizando esa evaluación al aprendizaje.
-En los exámenes uno no demuestra que sabe sino que trata de acertar a las respuestas que el docente considera válidas. Uno ya es una suerte de inteligencia artificial cuando rinde un examen: uno intenta interpretar qué es lo correcto en cierto contexto. Es lo que planteaba Marx: si vos hacés todos tus trabajos de forma automática, vas a poder ser reemplazado por un autómata. Si los exámenes del sistema educativo tienen automatismos, esos automatismos pueden ser respondidos por una máquina. Wikipedia es un ejemplo de automatismo: yo puedo hacer un trabajo práctico copiando distintos artículos y ensamblándolos, y ese trabajo hoy también se ha automatizado. La pregunta me parece que es la del origen: ¿hay alguna forma de responder y dar cuenta del conocimiento que uno tiene sin ensamblar respuestas escritas que uno ha encontrado por ahí, que es lo que hace el ChatGPT? Eso es lo que me interesa, porque nos obliga a pensar qué relación hay entre conocimiento y escritura.
-¿Qué otros atributos del ChatGPT te parecen atractivos?
-Un caso que me interesó fue el de un usuario que le pidió que haga un posteo para redes sociales a partir de todas sus fotos de vacaciones. Entonces el ChatGPT escribió lo que esa persona quería postear en Instagram. Yo veo en eso cierta creatividad, porque sale de la idea de usarlo para copiarse en el examen. Todavía no sabemos en qué ámbitos y contextos vamos a usar el Chat. Netflix habilitó un chat inteligente con el que el usuario puede hablar sobre series y películas, y a partir de ahí elaborar recomendaciones. Es posible, entonces, que estos chats se vuelvan el nuevo Google: que ya no tengas que buscar algo en un buscador impersonal, sino que tengas charlas con bots muy inteligentes en cualquier ámbito. Y esos bots van a acertar en sus respuestas y recomendaciones, porque cuanto más hables más respuestas te va a dar y más preparado va a estar para dártelas. Pero también he leído que ya hay empresas que pagan el servicio premium de ChatGPT y lo incorporan a las reuniones de directorio, seguramente con una mirada más informada y precisa que el resto de los miembros de la junta. Creo que aún no sabemos qué usos les vamos a dar. Pero si le añadimos creatividad humana puede llegar a explotar. Lo que se ha puesto a circular es una matriz, que a partir de la creatividad humana generará ramificaciones que todavía no podemos predecir.
-Da la impresión que ese diálogo puede cambiar también nuestra relación con nosotros mismos.
-Sí, sin dudas. El tema acá es que se externaliza el diálogo con uno mismo. Uno podría pensar que la historia de la tecnología es la historia de las externalizaciones. El martillo es externalizar el puño; el serrucho externalizar los dientes. ¿Qué se externaliza con los chats inteligentes? Probablemente el diálogo con uno mismo. Este objeto que es la inteligencia artificial nos permite interactuar con nosotros mismos pero con algo que está afuera. Uno podría considerar que pensar es dialogar con uno mismo; un proceso mental muy íntimo. Pero si vos tenés algo donde podés externalizarlo, como sería el chat, que además registra todo y no olvida nada, eso va a afectar nuestras prácticas.
-¿Qué mirada tenés sobre quienes aseguran haber probado que ChatGPT miente?
-Si el chat miente, no veo que sea un fenómeno muy diferente al de las fake news o los errores que se pueden encontrar en cualquier publicación. Es decir, hay información falsa y errónea: que te lo dé el chat o Wikipedia es indistinto. Hay un caso paradigmático, que es el de Black Lemoine, el ingeniero de Google al que un chat inteligente le dijo que tenía miedo de que lo desconectaran y él interpretó eso como reflejo de un sentimiento. Si uno interpreta que la IA recopila y reelabora lo que está escrito, esa frase puede haber salido de cualquier lado. Pero creer que eso que dice el chat se conecta con algo que podemos llamar miedo a la muerte es dar un paso muy grande. Porque ya es un paso muy grande saber si una planta siente dolor. Hay científicos que estudian cómo saber si los invertebrados, por ejemplo, sufren. Por supuesto ellos no tienen la gestualidad que podría sugerir eso, entonces los indicadores es un tema de investigación. Cosas como cuidar una herida sería un indicador de dolor común a todos los seres vivos, pero en realidad no lo sabemos. Yo escribí una nota que se llama La mirada del caracol porque en esa mirada vos no ves dolor, como podría mostrar la nuestra. Y creo que en este caso pasa algo similar: buscar en el chat la idea de mentira o de sufrimiento solo porque usa las mismas palabras que nosotros me parece muy lineal. ¿Qué indicadores tendríamos que atender para saber si a las máquinas les pasa algo diferente a lo que les pasaba hace diez años? De lo que no hay duda es de que no te lo van a decir ellas. A lo mejor les pasan cosas más interesantes, pero vamos a tener que ver qué indicadores usar para interpretarlas.
-En un punto pareciera que nos mordemos la cola, porque en definitiva el chat está entrenado y alimentado por nuestras nociones de mentira, error o sentimiento.
-Sí. El fenómeno que a mí me interesa es el de la imitación. Lo difícil, de Alan Touring para acá, no es que la máquina pueda desarrollar procesos de acumulación y procesamiento de datos para generar información nueva. Lo difícil es que lo haga de la manera en la que lo hacemos nosotros. Podría hacerlo de mil maneras mejores, pero la industria se preocupa por hacer una máquina que hable como nosotros, que use el lenguaje natural y silvestre, cuando podría hacer una que procese y entienda todos los papers del mundo para elaborar algo mejor. ¿Por qué hacer un chat que es capaz de hacer un paper sobre un tema ya transitado como lo haría un investigador medio pelo? ¿Por qué hacer eso en lugar de una máquina mejor? Esa es la pregunta que me interesa. Sin embargo, toda la industria busca hacer robots que imiten. Y creo que se debe a que los robots son máquinas con aspiraciones sociales: no super máquinas, sino máquinas que puedan integrarse a nuestras prácticas. Ahí parece estar el dinero, porque a diferencia de los Estados que compran máquinas sofisticadas para cuestiones específicas, en la masa lo popular son los robots: las máquinas que pueden relacionarse con nosotros. Es un poco la tesis de los teóricos aceleracionistas, que plantean que la tecnología podría ser mucho mejor pero a las corporaciones capaces de desarrollarlas lo que les interesa es hacer productos masivos. En ese sentido creo que ChatGPT no es un gran avance tecnológico, pero es un gran producto.
-¿Es miedo a la mímesis lo que está en el centro de los reparos a la IA?
-Sí. Y es un problema tan interesante como viejo. Es interesante pensar que las pasiones que despiertan los seres artificiales implican una mirada que excede lo racional. Somos seres humanos y estamos atravesados por mitos, y cuando miramos un robot lo miramos a través de ellos. No solo de los de la ciencia ficción sino también de los griegos, como Pandora, que era una mujer artificial creada para perjudicar a los humanos. O el Golem, o Frankenstein… Incluso Adán y Eva, un artificio divino que se vuelve contra su creador. Por eso las creencias populares sobre los robots hay que mirarlas a través de estos mitos también. Y si bien los expertos intentan explicar, creo que la racionalización total del fenómeno es imposible. Porque los robots tienen aspiraciones sociales y nosotros estamos atravesados por los mitos y las creencias. Hay una tesis interesante de Roger Bartra, que dice que para que los robots sean conscientes tienen que creerse que ellos mismos fabrican, como hacemos nosotros. Estamos prendidos a un montón de creencias falsas sobre el mundo, que compartimos con otros, y vivimos ahí. El robot puede mentir, pero la cuestión es si se puede creer su propia mentira. ¿Puede tener mitos un robot? Mientras no pueda vivir en una red simbólica, abstracta, no va a poder dar cuenta del mundo, sino de otras cosas.
-¿Qué mirada tenés vos sobre el horizonte de la singularidad?
-La tesis de la singularidad, que es bastante vieja, es lo opuesto a la del robot. La singularidad sería ese momento en que los robots ya no van a parecerse a nosotros sino que van a ser algo diferente que no vamos a poder comprender con nuestra inteligencia. No habría puntos de contacto. Uno podría pensar que ya hay redes neuronales que los mismos que las programaron ya son incapaces de saber qué sucede adentro. Son pequeñas singularidades, aisladas. Pero eso es lo contrario al lenguaje natural que maneja ChatGPT, por ejemplo. En un momento de Her, el protagonista le pregunta con cuántas personas más está chateando y son cientas. Entonces él no puede comprender eso: de alguna manera la máquina lo está dejando porque se aburrió de tener un diálogo bilateral con una inteligencia básica como la humana. El robot no va en el sentido de singularizar a la máquina, sino en el de que sigan conectadas a nosotros y nuestras prácticas.
-En el ámbito editorial se escudan en la incapacidad de las máquinas de sentir, que podría considerarse materia prima de mucha literatura. ¿Podrían las máquinas desarrollarse en un sentido sintiente, o es también una ilusión surgida del manejo del lenguaje natural?
-El tema es más complicado porque no sabemos muy bien qué es sentir. Qué hacemos cuando tenemos una emoción es algo que todavía es materia de estudio. Quienes investigan el cerebro y la psiquis no alcanzaron un consenso generalizado sobre qué son los sentimientos y las emociones. Y cuando se plantean estas cosas parece que ya sabemos lo que es sentir, y vamos a ver si la máquina también. Lo más interesante de las máquinas es que nos obligan a cuestionar los mitos sobre lo que es sentir. Uno podría decir que sentir tiene que ver con el soporte biológico, con el cuerpo sensible, que es algo que la máquina no tiene. Entonces, ¿cómo saber que a la máquina le pasa algo que podría ser equivalente a lo que nos pasa a nosotros cuando sentimos? Si vamos a buscar nuestros sentimientos en la máquina, estamos perdidos. La cuestión es que quizás las máquinas puedan padecer algunas cosas interesantes que no van a ser el reflejo de las categorías humanas con las que nos pensamos. Tampoco estoy seguro de que para ser artista haya que sufrir, y ahí está todo el campo de la escritura no creativa para demostrarlo. Además de que, para sufrir por una ruptura amorosa, tengo que haber incorporado previamente la creencia del amor eterno y mitos referidos a él. Las máquinas no están envueltas en sus propias creencias, lo que para algunos es una virtud en comparación a los humanos. Pero yo no comparto eso. No creo que los humanos tengan que aspirar a ser absolutamente racionales como el Sr. Spock; yo creo que esas deficiencias son las que nos hacen humanos. Y las máquinas no pueden serlo porque no tienen esos fallos de programa en los que creemos cosas que no existen y acarreamos mitos de seres que ya no somos.
-Volviendo a Her, ahí se puede ver cómo cosas que los humanos consideramos indicadores de destrato o insensibilidad, para la máquina no lo son. Y también qué tipo de relación establecemos con las máquinas (sea un robot o un auto), aunque racionalmente sepamos que no sienten.
-Hay un libro de Daniel Miller sobre cómo los estadounidenses tratan a sus autos. Y él dice que la diferencia entre el filósofo y el antropólogo está ahí. El filósofo es el que ve a alguien que dice sobre su auto es mi compañero porque nunca me deja a pata y no le cree; piensa que es medio estúpido, que el auto no tiene alma y que la persona está cayendo en el mito de que el auto tiene personalidad cuando en realidad no la tiene. Porque siempre busca la verdad, despejando las creencias. Pero para el antropólogo el fenómeno del auto es precisamente ese: que alguien pueda relacionarse con él como si fuese un ser vivo. Ése es el dato científico. Y yo estoy de acuerdo con esa tensión entre las disciplinas. Hay quienes pretenden ver qué son los humanos y qué son las máquinas y otros, con los que a mí me gusta relacionarme, lo hacen asumiendo que eso no está claro: el fenómeno psicofísico de que las personas crean que hablan con la máquina es verídico, es real porque tiene consecuencias prácticas. Por eso es interesante ver cómo operan. Y por eso no comparto esa actitud defensiva de tratar de desenmascarar el ChatGPT. Tampoco creo que haya que adoptarlo acríticamente, porque detrás de estos productos hay personajes como Elon Musk y prácticas como la recolección de datos y el poder político que implica eso. Pero, más allá de eso, no hay una humanidad que defender de las malas máquinas que nos vienen a invadir. Me parece que hay que pensar colectivamente formas creativas en que puedan integrarse a nuestras prácticas.