Ha sido interesante notar lo que se ha escrito sobre la Inteligencia Artificial (IA) en las últimas semanas, particularmente en lo que respecta a la exageración en torno a ChatGPT. Por lo que puedo juzgar, la mayor parte de esto equivale esencialmente a la percepción, o miedo, de que la IA ha superado a los humanos en lo que respecta a la inteligencia. del Dr. Harvey Risch cuenta reveladora de su 'conversación' con una IA ha demostrado ampliamente que se trata de una percepción errónea y, sin embargo, parece persistir de todos modos.
Una experiencia reciente que tuve con un entusiasta de ChatGPT transmite la misma impresión con respecto a la creencia generalizada de que la última AGI (Inteligencia General Artificial) es igual, si no superior, a los humanos en el departamento de inteligencia. Ocurrió con motivo de una charla que di a los miembros de una organización cultural sobre el tema de hasta qué punto el trabajo de Freud y Hannah Arendt puede proporcionar una idea del crecimiento actual de las insidiosas medidas totalitarias de control a nivel mundial.
Uno de esos desarrollos reveladores es el intento de la Organización Mundial de la Salud de robar a los países su soberanía modificando con éxito su constitución. Este intento fracasó hace dos años cuando los países africanos se opusieron a las enmiendas propuestas, pero en 2024 la OMS volverá a intentarlo, habiendo presionado vigorosamente a los líderes africanos mientras tanto.
Después de mi charla, alguien relacionó el tema con la IA. Específicamente, esto se refería a mi afirmación de que los conceptos de Eros (pulsión de vida) y Thanatos (pulsión de muerte) de Freud, por un lado, y las nociones de Arendt de natalidad (cada ser humano trae algo único al mundo al nacer) y pluralidad (todos los humanos somos diferentes), por otro, arrojan luz sobre la naturaleza del totalitarismo. También se relacionaba con la cuestión de si el totalitarismo puede ser sostenido por quienes lo promueven. Resultó que, después de que se difundió el tema de mi charla, le pidió a ChatGPT que comentara al respecto y trajo la "respuesta" de la IA a la reunión en formato impreso para mostrármela.
Como era de esperar, para una máquina de investigación predictiva y habilitada para el reconocimiento de patrones lingüísticos con una base de datos enorme (que es lo que realmente es ChatGPT) no fue difícil desglosar con precisión lo que significan los conceptos freudianos y arendtianos relevantes: cualquier estudiante podría encontrar esto en Internet. o en una biblioteca también. Pero donde la IA vaciló fue el vínculo que establecí entre las ideas de estos pensadores y los eventos actuales que se desarrollan en el espacio global.
Recuérdese que había empleado los conceptos de Freud y Arendt de forma heurística en relación con lo que, posiblemente, son signos de 'movimientos' totalitarios que se están realizando en diversas áreas institucionales en la actualidad. ChatGPT, de nuevo como era de esperar, lo hizo (y posiblemente could) no dio más detalles sobre la conexión que había implicado en el título circulado de mi charla, y simplemente había 'afirmado' que había 'alguna' relación entre las ideas de estos dos pensadores y el totalitarismo.
La razón de esto debería ser evidente de inmediato. En ninguna parte de la base de datos de ChatGPT hay información. en el formato de una interpretación legible – de lo que son sintomáticos eventos como el intento sostenido de la OMS de convertirse en el organismo rector del mundo (mencionado anteriormente), a saber, un régimen totalitario global incipiente. Para que ChatGPT (o cualquier otra IA) pueda llegar a tal 'interpretación', sus programadores tendrían que ingresarla en su base de datos, lo cual es poco probable, si no impensable, dada su crítica implícita de la misma constelación de poderes que dio lugar a la construcción de ChatGPT, o la IA tendría que poseer la capacidad que tienen todos los seres humanos 'normales', a saber, poder interpretar el mundo experiencial que los rodea. Claramente, ninguna IA tiene esa capacidad debido a su dependencia de ser programada.
Mi interlocutor cuestionó esta respuesta explicativa de mi parte, argumentando que ChatGPT muestra su capacidad de 'razonar' en cada 'respuesta' que se le ocurre a las preguntas que uno podría hacer. Esto, señalé, no es una descripción precisa de lo que hace la IA. Recuerda: ChatGPT produce respuestas antropomórficas en el lenguaje cotidiano a las preguntas que se le hacen. Lo hace utilizando ejemplos detectados en los colosales conjuntos de datos a los que tiene acceso y que le permiten predecir palabras sucesivas en oraciones. En pocas palabras: es capaz de encontrar patrones estadísticos en estas enormes bases de datos, utilizando "aprendizaje automático".
Eso no es razonar, como debe saber todo estudiante que haya estudiado lógica e historia de la filosofía –como argumentaba René Descartes en el 17th siglo, el razonamiento es una combinación de ideas intuitivas e inferencia o deducción. Uno comienza con una percepción intuitiva, por ejemplo, que las luces se han apagado, y de allí se infiere que alguien las apagó o que se interrumpió el suministro eléctrico. O se puede razonar (por deducción) a partir de un conjunto de datos (la percepción intuitiva) que otro es probable o improbable. En ningún momento uno recurre a cantidades masivas de datos que uno escanea en busca de patrones que muestren similitudes y aventura predicciones anticipadas sobre esa base.
Sin embargo, como se puede comprobar por informáticos como Dr. Arvind Narayanan, profesor de ciencias de la computación en la Universidad de Princeton, las personas (como mi interlocutor) se dejan engañar fácilmente por una IA como ChatGPT porque parece muy sofisticada, y cuanto más se vuelven, más difícil sería para los usuarios detectar sus deficiencias en relación con pseudo-razonamiento, así como sus errores.
Como indica el Dr. Narayanan, las respuestas de ChatGPT a algunas preguntas del examen de ciencias de la computación que le planteó eran falsas, pero estaban redactadas de una manera tan engañosa que su falsedad no era evidente de inmediato, y tuvo que verificarlas tres veces antes de estar seguro de que esto fue el caso. Esto en cuanto a la cacareada capacidad de ChatGPT para 'reemplazar' a los humanos.
Sin embargo, se debe recordar que lo que se ha discutido hasta ahora en términos comparativos es el tema, si una IA como ChatGPT funciona de la misma manera que los humanos en el nivel de inteligencia, que se relaciona con diferencias como el razonamiento en lugar del reconocimiento de patrones, etcétera. Uno podría formular la pregunta en términos de inferioridad y superioridad también, por supuesto, y algunos argumentan que los humanos siguen apareciendo para burlar a la IA, incluso si una IA puede realizar cálculos matemáticos más rápido que los humanos.
Pero solo cuando uno cambia el terreno, las diferencias fundamentales entre un ser humano, visto de manera integral, y una IA, sin importar cuán inteligente sea, pueden verse en perspectiva. Esto es mayormente pasado por alto por las personas que se involucran en el debate sobre los humanos en contraposición a la inteligencia 'artificial', por la sencilla razón de que la inteligencia es no todo lo que importa.
Para ilustrar lo que quiero decir, piense en lo que sucedió entre el campeón mundial de ajedrez Garry Kasparov y Deep Blue, la 'supercomputadora' de IBM, en 1997. Habiendo sido derrotado por Kasparov en 1996, Deep Blue obtuvo la primera victoria sobre un ser humano por una máquina en el año siguiente, y luego, también, como con ChatGPT hoy, hubo un lamento universal sobre la supuesta 'muerte' de la raza humana, representada por Kasparov siendo vencido por una computadora ( una IA).
Al igual que hoy con respecto a ChatGPT, esta reacción fue emblemática del error que comete la gran mayoría de las personas cuando juzgan la relación entre la IA y los humanos. Por lo general, dicha evaluación se lleva a cabo en términos de cognición, evaluando quién es más 'inteligente': humanos o máquinas. Pero uno debería preguntarse si la inteligencia era la medida apropiada, y mucho menos la más adecuada, para comparar humanos y computadoras (como representante de la IA) entonces, y de hecho ahora.
Comprensiblemente, la humillación de Kasparov por parte de la máquina se informó en todas partes en ese momento, y recuerdo haberme topado con un relato en el que el escritor mostró una gran comprensión de lo que tengo en mente cuando me refiero a los criterios correctos o apropiados para la comparación entre humanos y humanos. AI. Habiendo reconstruido los deprimentes detalles de la histórica derrota de Kasparov por Deep Blue, este escritor recurrió a una fantasía humorística, pero poco reveladora.
Tras la simbólica derrota del humano, ella o él fabuló, el equipo de ingenieros e informáticos que había diseñado y construido Deep Blue salió a la ciudad a celebrar su triunfo trascendental. Sería erróneo escribir 'la victoria de su máquina', porque estrictamente hablando fue el equipo humano el que obtuvo una victoria por medio de 'su' computadora.
El remate estaba preparado para cuando el escritor preguntó, retóricamente, si Deep Blue, también, salió a pintar de rojo el pueblo con Rosa Claro para saborear su conquista. Ni que decir tiene que la respuesta a esta pregunta retórica es negativa. Fue seguido por el remate, que decía lo obvio; a saber, que 'los humanos celebran; las computadoras (o máquinas) hacen no.'
Mirando hacia atrás, sorprende que este escritor fuera una especie de visionario, empleando una ficción para resaltar el hecho de que, aunque los humanos y la IA comparten 'inteligencia' (aunque de diferentes tipos), no no marcar las diferencias más obvias e irreductibles entre la IA y las personas. Hay otras diferencias, mucho más decisivas, entre los humanos y la IA, algunas de las cuales han sido exploradas aquí y aquí .
Publicado bajo un Licencia de Creative Commons Atribución Internacional
Para reimpresiones, vuelva a establecer el enlace canónico en el original Instituto Brownstone Artículo y Autor.