COMPARTIR | IMPRIMIR | EMAIL
Antes de la COVID-19, me habría descrito como un optimista tecnológico. Las nuevas tecnologías casi siempre llegan en medio de temores exagerados. Se suponía que los ferrocarriles causaban crisis mentales, se creía que las bicicletas volvían a las mujeres infértiles o locas, y se culpaba a la electricidad en sus inicios de todo, desde la decadencia moral hasta el colapso físico. Con el tiempo, estas ansiedades se desvanecieron, las sociedades se adaptaron y el nivel de vida mejoró. El patrón era tan familiar que parecía probable que la inteligencia artificial lo siguiera: disruptiva, a veces mal utilizada, pero en última instancia, manejable.
Los años de la COVID-19 quebrantaron esa confianza, no porque fallara la tecnología, sino porque fallaron las instituciones.
En gran parte del mundo, gobiernos y organismos de expertos respondieron a la incertidumbre con intervenciones sociales y biomédicas sin precedentes, justificadas por modelos de escenarios desfavorables y aplicadas con notable certeza. Las hipótesis contrapuestas se marginaron en lugar de debatirse. Las medidas de emergencia se consolidaron como políticas a largo plazo. Cuando la evidencia cambió, las admisiones de error fueron escasas, y la rendición de cuentas aún más escasa. La experiencia expuso un problema más profundo que cualquier error político: las instituciones modernas parecen estar mal preparadas para gestionar la incertidumbre sin excederse.
Esa lección pesa ahora mucho en los debates sobre la inteligencia artificial.
La brecha de riesgo de la IA
En términos generales, la preocupación por la IA avanzada se divide en dos bandos. Un grupo, asociado con pensadores como Eliezer Yudkowsky y Nate Soares, argumenta que una IA suficientemente avanzada es catastróficamente peligrosa por defecto. En su formulación deliberadamente cruda, Si alguien lo construye, todos muerenEl problema no son las malas intenciones sino los incentivos: la competencia garantiza que alguien tomará atajos, y una vez que un sistema escapa a un control significativo, las intenciones ya no importan.
Un segundo grupo, que incluye figuras como Stuart Russell, Nick Bostrom y Max Tegmark, también toma en serio el riesgo de la IA, pero es más optimista respecto de que la alineación, la gobernanza cuidadosa y el despliegue gradual pueden mantener los sistemas bajo control humano.
A pesar de sus diferencias, ambos bandos coinciden en una conclusión: el desarrollo sin restricciones de la IA es peligroso y se requiere algún tipo de supervisión, coordinación o restricción. Donde divergen es en la viabilidad y la urgencia. Sin embargo, lo que rara vez se examina es si las instituciones que se espera que proporcionen esa restricción son ellas mismas idóneas para tal función.
El Covid sugiere motivos para la duda.
La COVID-19 no fue simplemente una crisis de salud pública; fue un experimento en vivo de gobernanza impulsada por expertos en un contexto de incertidumbre. Ante la falta de datos, las autoridades optaron repetidamente por intervenciones máximas justificadas por perjuicios especulativos. La disidencia se trató a menudo como una falla moral en lugar de una necesidad científica. Las políticas se defendieron no mediante un análisis coste-beneficio transparente, sino apelando a la autoridad y al miedo a futuros hipotéticos.
Este patrón es importante porque revela cómo se comportan las instituciones modernas cuando lo que está en juego se enmarca como existencial. Los incentivos se orientan hacia la decisión, el control narrativo y la certeza moral. La corrección de errores se vuelve reputacionalmente costosa. La precaución deja de ser una herramienta para convertirse en una doctrina.
La lección no es que los expertos sean los únicos en tener defectos. Es que las instituciones recompensan el exceso de confianza con mucha más fiabilidad que la humildad, especialmente cuando la política, la financiación y el miedo público se alinean. Una vez que se reclaman poderes extraordinarios en nombre de la seguridad, rara vez se ceden voluntariamente.
Éstas son precisamente las dinámicas que ahora se ven en los debates sobre la supervisión de la IA.
La máquina del “¿Qué pasaría si…?”
Una justificación recurrente para la intervención estatal expansiva es el hipotético actor malo: ¿Y si un terrorista construye esto? ¿Y si un estado rebelde lo hace? De esa premisa se desprende el argumento de que los gobiernos deben actuar preventivamente, a gran escala y a menudo en secreto para evitar una catástrofe.
Durante la COVID-19, una lógica similar justificó agendas de investigación biomédica de gran envergadura, autorizaciones de emergencia y controles sociales. El razonamiento era circular: porque algo peligroso... puede Si esto sucede, el Estado debe tomar medidas extraordinarias ahora, medidas que en sí mismas conllevan riesgos importantes y poco comprendidos.
La gobernanza de la IA se define cada vez más de la misma manera. El peligro no solo reside en que los sistemas de IA se comporten de forma impredecible, sino en que el temor a esa posibilidad legitime la gobernanza de emergencia permanente (control centralizado sobre la computación, la investigación y los flujos de información) con el argumento de que no hay alternativa.
Riesgo privado, riesgo público
Una distinción poco apreciada en estos debates es la que existe entre los riesgos generados por actores privados y los riesgos generados por la autoridad estatal. Las empresas privadas se ven limitadas —de forma imperfecta, pero significativa— por la responsabilidad, la competencia, la reputación y la disciplina del mercado. Estas restricciones no eliminan el daño, pero crean ciclos de retroalimentación.
Los gobiernos operan de manera diferente. Cuando los estados actúan en nombre de la prevención de catástrofes, la retroalimentación se debilita. Los fallos pueden reclasificarse como necesidades. Los costos pueden externalizarse. El secretismo puede justificarse por la seguridad. Los daños futuros hipotéticos se convierten en palancas políticas en el presente.
Varios pensadores en IA lo reconocen implícitamente. Bostrom ha advertido sobre los efectos de "encierro", no solo de los sistemas de IA, sino también de las estructuras de gobernanza creadas durante momentos de pánico. El llamado de Anthony Aguirre a la moderación global, si bien lógicamente coherente, se basa en organismos internacionales de coordinación cuyo historial reciente de humildad y corrección de errores es deficiente. Incluso propuestas más moderadas presuponen reguladores capaces de resistir la politización y la expansión de la misión.
La COVID nos da pocos motivos para confiar en esa suposición.
La paradoja de la supervisión
Esto conduce a una paradoja preocupante en el corazón del debate sobre la IA. Si realmente se cree que la IA avanzada debe ser limitada, ralentizada o detenida, es probable que los gobiernos y las instituciones transnacionales tengan el poder para hacerlo. Sin embargo, son precisamente estos actores cuyo comportamiento reciente inspira la menor confianza en un uso restringido y reversible de dicho poder.
El enfoque de emergencia es complejo. La autoridad adquirida para gestionar riesgos hipotéticos tiende a persistir y expandirse. Las instituciones rara vez minimizan su propia importancia. En el contexto de la IA, esto plantea la posibilidad de que la respuesta al riesgo de la IA consolide sistemas de control frágiles y politizados, más difíciles de desmantelar que cualquier tecnología individual.
El peligro, en otras palabras, no es sólo que la IA escape al control humano, sino que el miedo a la IA acelere la concentración de autoridad en instituciones que ya han demostrado ser lentas en admitir errores y hostiles al disenso.
Repensando el riesgo real
Esto no es un argumento a favor de la complacencia con la IA, ni una negación de que las tecnologías poderosas puedan causar un daño real. Es un argumento a favor de ampliar el marco. El fracaso institucional es en sí mismo una variable existencial. Un sistema que asume una gobernanza benévola y autocorrectiva no es más seguro que uno que asume una superinteligencia benévola y alineada.
Antes de la COVID-19, era razonable atribuir la mayor parte del pesimismo tecnológico al sesgo de negatividad humana: la tendencia a creer que los desafíos de nuestra generación son excepcionalmente inmanejables. Después de la COVID-19, el escepticismo se asemeja menos a un sesgo y más a una experiencia.
Por lo tanto, la pregunta central en el debate sobre la IA no es solo si las máquinas pueden alinearse con los valores humanos, sino si se puede confiar en que las instituciones modernas gestionen la incertidumbre sin amplificarla. Si esa confianza se ha erosionado —y la COVID-19 así lo sugiere—, las demandas de una supervisión expansiva de la IA merecen al menos el mismo escrutinio que las afirmaciones sobre la inevitabilidad tecnológica.
El mayor riesgo quizá no sea que la IA se vuelva demasiado poderosa, sino que el miedo a esa posibilidad justifique formas de control que luego descubrimos que son mucho más difíciles de aceptar (o de evitar).
-
Roger Bate es Brownstone Fellow, miembro senior del Centro Internacional de Derecho y Economía (enero de 2023-presente), miembro de la junta directiva de Africa Fighting Malaria (septiembre de 2000-presente) y miembro del Instituto de Asuntos Económicos (enero de 2000-presente).
Ver todos los artículos