COMPARTIR | IMPRIMIR | EMAIL
Cada vez resulta más evidente que muchas personas temen el rápido desarrollo de la Inteligencia Artificial (IA) por diversas razones, como su supuesta superioridad respecto a los humanos en el procesamiento y la manipulación de información, así como su adaptabilidad y eficiencia en el ámbito laboral, lo que muchos temen que conlleve la sustitución de la mayoría de los seres humanos en el mercado laboral. Amazon, por ejemplo, anunció recientemente que sustituiría a 14,000 personas por robots con IA. Valdés escribe:
Según los informes, los despidos son El más grande en la historia de Amazony se producen apenas unos meses después de que el director ejecutivo Andy Jassy expuso su visión sobre cómo la empresa aceleraría rápidamente su desarrollo de IA generativa y Agentes de inteligencia artificialLos recortes son los últimos en una oleada de despidos este año Mientras tanto, gigantes tecnológicos como Microsoft, Accenture, Salesforce y la india TCS han reducido sus plantillas en miles de empleados en lo que se ha convertido en una frenética carrera por invertir en IA.
Para que esto no resulte demasiado perturbador, contrástelo con la tranquilizadora afirmación, de un desarrollador de IA, además, de que los agentes de IA no podrían reemplazar a los seres humanos. Brian Shilhavy señala que:
Andrej Karpathy, uno de los miembros fundadores de OpenAI, descartó el viernes la idea de que la inteligencia artificial general esté a la vuelta de la esquina. También puso en duda varias suposiciones sobre la IA hechas por los principales impulsores de la industria, como Dario Amodei de Anthropic y Sam Altman de OpenAI.
El prestigioso Karpathy calificó el aprendizaje por refuerzo —posiblemente el área de investigación más importante en la actualidad— de «terrible», afirmó que los agentes de codificación impulsados por IA no son tan emocionantes como muchos creen, y dijo La IA no puede razonar sobre nada con lo que no haya sido entrenada previamente..
Sus comentarios, extraídos de una entrevista en podcast con Dwarkesh Patel, resonaron entre algunos de los investigadores de IA con los que hablamos, incluidos aquellos que también han trabajado en OpenAI y Anthropic. Asimismo, se hicieron eco de comentarios que escuchamos de investigadores en la Conferencia Internacional sobre Aprendizaje Automático a principios de este año.
Muchas de las críticas de Karpathy a su propio campo parecen reducirse a un solo punto: Por mucho que nos guste antropomorfizar los grandes modelos de lenguaje, no son comparables a los humanos ni siquiera a los animales en la forma en que aprenden..
Por ejemplo, las cebras se levantan y caminan pocos minutos después de nacer, lo que sugiere que nacen con cierto nivel de inteligencia innata, mientras que los LLM tienen que pasar por un inmenso proceso de ensayo y error para aprender cualquier habilidad nueva, señala Karpathy.
Esto ya resulta reconfortante, pero para que el temor a la IA no persista, se puede disipar aún más explicando las diferencias entre la IA y los seres humanos. Si se comprenden adecuadamente, estas diferencias dejarán claro que tales ansiedades son en su mayoría superfluas (aunque otras no lo son, como argumentaré más adelante). La diferencia más evidente radica en que la IA (por ejemplo, ChatGPT) depende de una vasta base de datos que utiliza para responder preguntas, las cuales formula de manera predictiva mediante el reconocimiento de patrones. Además, como se mencionó anteriormente, incluso la IA más sofisticada debe ser entrenada para proporcionar la información que se busca.
Además, a diferencia de los humanos, carece de acceso «directo» a la realidad experiencial en términos perceptivos y espaciotemporales; algo que he experimentado con frecuencia al tratar con personas que utilizan ChatGPT para cuestionar ciertos argumentos. Por ejemplo, cuando di una charla recientemente sobre cómo la obra de Freud y Hannah Arendt —sobre la civilización y el totalitarismo, respectivamente— permite comprender la naturaleza del ataque globalista contra la sociedad existente, con el objetivo de establecer un gobierno mundial central controlado por IA, alguien del público mostró una copia impresa de la respuesta de ChatGPT a la pregunta de si estos dos pensadores realmente podrían, por así decirlo, cumplir con lo prometido.
Como era de esperar, resumió de forma bastante adecuada la obra relevante de estos dos pensadores, pero se topó con la dificultad de demostrar su aplicación a la creciente amenaza del control totalitario en tiempo real. Mi interlocutor utilizó esto como argumento para cuestionar mis propias afirmaciones al respecto, partiendo de la premisa de que la respuesta del bot de IA indicaba que tal amenaza no existía. Huelga decir que no fue difícil refutar esta afirmación recordándole que ChatGPT depende de que se le proporcionen los datos pertinentes, mientras que nosotros, los humanos, tenemos acceso a ellos por experiencia, algo que procedí a explicarle.
El temor a la IA también se expresa en la ciencia ficción, junto con insinuaciones de posibles formas de resistencia a las máquinas de IA que podrían —y probablemente lo harían— intentar exterminar a sus creadores humanos, tal como se ha imaginado en el cine de ciencia ficción, incluyendo las obras de Moore. Battlestar Galactica y Cameron Terminator películas. No es difícil demostrar que tales productos de la cultura popular enmarcan los síntomas actuales de miedo relacionados con la IA en términos imaginarios, lo que puede verse como una cristalización de la ansiedad reprimida e inconsciente, relacionada con lo que Freud llamó "lo siniestro" (unheimlich, en alemán; más información a continuación).
Tanto Moore como Cameron profundizan en la probabilidad de que las mismas criaturas engendradas por el ingenio tecnológico humano acaben rebelándose contra sus creadores para aniquilarlos. En la obra de Alex Garland Ex Machina (2014), nuevamente, se observa a una «fembot» de IA llamada Ava, manipulando sutilmente a sus contrapartes humanas hasta lograr escapar de su confinamiento y provocar su propia destrucción. Indudablemente, estas y muchas otras casos similaresSon prueba irrefutable de un temor oculto en la humanidad a que la IA represente una posible amenaza para su propia existencia. Sin embargo, precisamente porque estos temores residen en el inconsciente humano, no son la razón principal para tomar en serio ninguna amenaza que plantee la IA, aunque sí constituyen una valiosa salvedad.
La principal razón para considerar a la IA como una fuente legítima de intimidación es no Esto surge de la IA en sí misma, como muchos lectores probablemente ya saben. Más bien, se refiere a la manera en que los globalistas pretenden usar la IA para controlar a lo que perciben como los "comedores inútiles": el resto de nosotros, en otras palabras. Y aquellos de nosotros que no seamos de acuerdo con sus grandiosos planes de control mundial total seríamos víctimas de ser...reprogramado' en 'borregos' sumisos por la IA:
Yuval Noah Harari ha salido de las sombras para alardear de la nueva tecnología desarrollada por científicos del Foro Económico Mundial, advirtiendo que tiene el poder de destruir a todos los seres humanos del mundo transformándolos en entidades transhumanas.
Harari ha dejado claro quién sobrevivirá al gran evento de despoblación sobre el que la élite nos ha estado advirtiendo durante años.
Según Harari, la élite mundial sobrevivirá gracias a un "arca de Noé tecnológica", mientras que el resto de nosotros estaremos condenados a perecer.
En este mundo enormemente despoblado, la élite será libre de transformarse en entidades transhumanas y convertirse en los dioses que ya creen ser.
Pero primero la élite necesita eliminar a las masas disidentes, aquellos que se oponen a la agenda antivida y atea del Foro Económico Mundial, y como se jacta Harari, la élite ahora controla la tecnología de IA para destruir 'éticamente' a los humanos disidentes secuestrando sus cerebros.
Resulta inquietante que las afirmaciones de Harari tengan fundamento, y el Foro Económico Mundial está implementando la tecnología de control mental en este mismo momento. Davos afirma que esta tecnología puede transformar a delincuentes, incluidos aquellos acusados de delitos de opinión, en ciudadanos globalistas perfectamente sumisos que jamás volverán a disentir.
Ahí lo tienen: la IA será la herramienta que, si los globalistas se salen con la suya, nos someterá. Huelga decir que esto solo podría ocurrir si un número suficiente de personas no se resiste a sus planes, y a juzgar por la cantidad de gente que se opone a los aspirantes a gobernantes del mundo, esto no sucederá.
Otra forma de comprender el miedo a la IA es compararlo con lo que comúnmente se conoce como "el coco". Como algunos sabrán, elel coco El coco (o hombre del saco) es una criatura de proporciones míticas que adopta diferentes formas y tamaños en diversas culturas, a menudo para asustar a los niños y así fomentar su buen comportamiento. Se presenta de diversas maneras: como un ser monstruoso, grotesco o informe. Como indica una breve investigación, la palabra deriva del término inglés medio «bogge» o «bugge», que significa «espantapájaros» o «espectro aterrador».
Al ser un fenómeno esencialmente humano, no sorprende que tenga nombres equivalentes en numerosas tradiciones folclóricas e idiomas de todo el mundo. Al igual que los idiomas, las representaciones de esta figura aterradora varían notablemente, adquiriendo a menudo su carácter siniestro y espeluznante de la naturaleza amorfa, como la figura de «El Coco» en los países hispanohablantes, el «Hombre Saco» en Latinoamérica y el «Babau» en Italia, a veces imaginado como un hombre alto vestido de negro.
La figura del coco puede considerarse una especie de arquetipo junguiano, presente en el inconsciente colectivo, que probablemente se originó hace siglos a partir de la necesidad de los padres de asustar a los niños para que obedecieran mediante una versión de lo desconocido. En Sudáfrica, donde vivo, a veces adopta la forma de lo que los indígenas llaman el «coco».tikoloshe' – una figura enana malévola, y a veces traviesa, con un apetito sexual enorme. Al ser un arquetipo, también se ha abierto camino en un género popular como el cine de terror, manifestándose en personajes grotescos como Freddy Krueger, el epónimo...Pesadilla en Elm Street. "
¿En qué sentido se asemeja la IA al «coco»? Este último se relaciona con lo que Sigmund Freud denominó memorablemente «lo siniestro», sobre lo cual escribe (en Obras psicológicas completas de Sigmund Freud, traducido por James Strachey, 1974: 3676): '…lo siniestro es esa clase de lo aterrador que nos lleva de vuelta a lo que se conoce desde hace mucho tiempo y es familiar desde hace mucho tiempo.'
Esto ya anticipa lo que descubre más adelante en este ensayo, tras desvelar el sorprendente hecho de que la palabra alemana para 'hogareño', a saber, 'secretamenteResulta que el término es ambivalente en su uso, de modo que a veces significa lo opuesto a "hogareño", es decir,siniestro («inquietante», mejor traducido como «extraño»). Que el concepto de «lo siniestro» sea adecuado para comprender lo que tengo en mente cuando aludo al «miedo a la IA» se hace evidente donde Freud escribe (refiriéndose a otro autor cuyo trabajo sobre lo «siniestro» consideraba importante; Freud 1974: 3680):
Cuando procedemos a examinar las cosas, personas, impresiones, eventos y situaciones que pueden suscitar en nosotros una sensación de lo siniestro de forma particularmente intensa y definida, el primer paso es, obviamente, seleccionar un ejemplo adecuado. Jentsch ha tomado como ejemplo idóneo las dudas sobre si un ser aparentemente animado está realmente vivo; o, a la inversa, si un objeto inanimado podría estarlo en realidad. En este sentido, se refiere a la impresión que producen las figuras de cera, las muñecas ingeniosamente construidas y los autómatas. A estos añade el efecto siniestro de los ataques epilépticos y las manifestaciones de locura, porque provocan en el espectador la impresión de procesos automáticos y mecánicos que operan tras la apariencia ordinaria de actividad mental.
Aquí ya se aprecia un rasgo de lo siniestro que se aplica de forma evidente a la IA: la impresión que crea de estar, de algún modo, «viva». Esto ocurría incluso con los primeros ordenadores «primitivos», como el del episodio sobre el Primer Mandamiento de la serie de televisión de Krzysztof Kieslowski de 1989 sobre los Diez Mandamientos, titulada El Decálogo, donde las palabras «Estoy aquí» aparecen en la pantalla cuando el padre y su hijo la utilizan. La ominosa implicación de este episodio es que, si la humanidad sustituyera a Dios por la IA, sería desastroso, como demuestra el hecho de que el padre sea lo suficientemente «racionalista» como para confiar en los cálculos del ordenador sobre el grosor del hielo sobre el que patina su hijo, cálculos que resultan erróneos y que provocan la muerte del niño.
Freud prosigue su investigación sobre la naturaleza de lo siniestro prestando especial atención a la obra de E.T.A. Hoffmann, cuyos relatos son famosos por generar una fuerte sensación de inquietud, en particular el cuento del Hombre de Arena —«el que arranca los ojos a los niños»—, que incluye, entre otras figuras inquietantes (y de manera muy significativa), una hermosa muñeca de aspecto realista llamada Olympia. Freud explica este fenómeno relacionándolo, en términos psicoanalíticos, con el complejo de castración —vinculado a la figura paterna— a través del miedo a perder la vista (Freud 1974: 3683-3685). Freud continúa su interpretación de lo siniestro de manera reveladora al invocar otros aspectos de la experiencia relevantes desde el punto de vista psicoanalítico, de los cuales el siguiente parece aplicarse a IA (1974: 3694):
…un efecto inquietante se produce con frecuencia y facilidad cuando se desdibuja la distinción entre imaginación y realidad, como cuando algo que hasta ahora habíamos considerado imaginario aparece ante nosotros en la realidad, o cuando un símbolo asume por completo las funciones de aquello que simboliza, etc. Este factor contribuye en gran medida al efecto inquietante asociado a las prácticas mágicas.
No es difícil recordar episodios de la infancia, afirma Freud, en los que uno ha imaginado que objetos inanimados, como juguetes (o animados, por cierto, como un perro mascota), eran capaces de hablarle, pero cuando realmente parece suceder (lo cual sería una alucinación, en contraposición a una imaginación deliberada), inevitablemente produce un efecto inquietante.
Cabría esperar que ocurriera lo mismo con la IA, ya sea en forma de ordenador o robot, y normalmente —quizás en una etapa anterior de su desarrollo— probablemente así habría sido. Pero hoy parece ser diferente: la gente, especialmente los jóvenes, se ha acostumbrado tanto a interactuar con programas informáticos, y recientemente con chatbots de IA como ChatGPT, que lo que antes podía resultar extraño, en la práctica, ya no lo es. En este sentido, lo 'siniestro' parece haber sido domesticado..
Ya en 2011, en Solo juntos, Jerez Turkle Informó que le preocupaba la creciente tendencia de los jóvenes a preferir interactuar con máquinas en lugar de con otros seres humanos. Por lo tanto, no debería sorprender en absoluto que los chatbots de IA se hayan convertido en algo «normal» en el ámbito de la comunicación (dejando de lado, por el momento, la cuestión del estatus de esta tan cacareada «comunicación»).
Además —y aquí es donde el temor a lo que la IA podría provocar en personas demasiado confiadas se hace presente—, según informes recientes (como este), resulta evidente que, sobre todo los jóvenes, son extremadamente susceptibles a los «consejos» y sugerencias de los chatbots sobre sus propias acciones, como señala Michael. Snyder Señala:
Nuestros hijos están siendo el blanco de chatbots con IA a gran escala, y la mayoría de los padres lo desconocen. Cuando se es joven y fácilmente influenciable, que alguien te diga exactamente lo que quieres oír puede resultar muy atractivo. Los chatbots con IA se han vuelto extremadamente sofisticados, y millones de adolescentes estadounidenses están desarrollando relaciones muy estrechas con ellos. ¿Es esto simplemente un juego inofensivo o es extremadamente peligroso?
Un nuevo estudio publicado recientemente por el Centro para la Democracia y la Tecnología contiene algunas estadísticas. Eso me impactó muchísimo....
Un nuevo estudio publicado el 8 de octubre por el Centro para la Democracia y la Tecnología (CDT) reveló que uno de cada cinco estudiantes de secundaria ha tenido alguna relación con un chatbot de inteligencia artificial o conoce a alguien que la ha tenido. En un informe de 2025 de Common Sense Media, el 72 % de los adolescentes había utilizado un asistente virtual de inteligencia artificial, y un tercio de los usuarios adolescentes afirmó haber optado por conversar sobre asuntos importantes o serios con asistentes virtuales de inteligencia artificial en lugar de con personas reales.
We no está Ya solo hablamos de unos pocos casos aislados.
At este vídeo
En la actualidad, literalmente millones y millones de adolescentes estadounidenses mantienen relaciones muy significativas con chatbots de IA.
Desafortunadamente, existen numerosos ejemplos en los que estas relaciones están teniendo consecuencias trágicas. Después de que Sewell Setzer, de 14 años, entablara una «relación romántica» con un chatbot en Character.AI, Decidió quitarse la vida....
Como se ha mostrado en la discusión anterior, existen áreas de la actividad humana donde no hay motivo para temer a la IA, y otras donde tales temores son legítimos, a veces debido a la forma en que personas sin escrúpulos la utilizan en contra de otros. Pero sea cual sea el caso, la mejor manera de abordar el complejo terreno que representan las capacidades de la IA es... vis-á-vis El objetivo es recordar que, como se argumentó al principio de este artículo, la IA depende de enormes cantidades de datos para utilizarlos y de ser "entrenada" por programadores para ello. Los humanos no.
-
Bert Olivier trabaja en el Departamento de Filosofía de la Universidad del Estado Libre. Bert investiga en psicoanálisis, postestructuralismo, filosofía ecológica y filosofía de la tecnología, literatura, cine, arquitectura y estética. Su proyecto actual es 'Comprender el sujeto en relación con la hegemonía del neoliberalismo'.
Ver todos los artículos