¿Qué tan peligroso es el avance de las Inteligencias Artificales?

Durante los últimos meses, distintos medios de comunicación han dado espacio creciente a una preocupación que, hace no mucho, hubiera sido impensable: la posibilidad, barajada por personalidades académicas prestigiosas, de que la inteligencia artificial finalmente se desarrolle a un punto tal que pueda tomar el control del planeta, y eventualmente, someter a la humanidad, o incluso representar una amenaza para su supervivencia.

Lo llamativo no es tanto la idea en sí —que lleva décadas circulando en películas, libros y conversaciones de café— sino quiénes la están planteando hoy. Geoffrey Hinton, Premio Nobel de Física 2024 y considerado uno de los padres de las redes neuronales artificiales, abandonó Google en 2023 para poder hablar libremente sobre estos riesgos. Sundar Pichai, CEO de Google, ha reconocido públicamente que el desarrollo de la IA es “la tecnología más profunda y potencialmente peligrosa en la que la humanidad haya trabajado jamás”. A ellos se suman voces de universidades, institutos de investigación y organismos internacionales que comparten una inquietud similar.

No es menor que estas alertas vengan precisamente de quienes están construyendo la tecnología. Hay algo paradójico, casi borgiano, en que los arquitectos de una herramienta adviertan sobre su propio artefacto. Y sin embargo, la historia tiene antecedentes: Einstein firmó la carta a Roosevelt advirtiendo sobre la bomba atómica; los propios físicos del Proyecto Manhattan convivieron con el horror de lo que habían creado. La pregunta que surge naturalmente es: ¿están en lo correcto? ¿Es inevitable este futuro?

Antes de responder, vale la pena recordar que la imaginación colectiva ya había estado ahí. La saga *Terminator*, estrenada en 1984, y la trilogía *Matrix*, a finales de los noventa, no eran simplemente películas de acción: eran ensayos filosóficos y futuristas envueltos en efectos especiales. Exploraban con una lucidez perturbadora la posibilidad de que las máquinas adquirieran autonomía, intencionalidad y, eventualmente, el impulso de dominar o eliminar a sus creadores. Treinta años después, lo que entonces parecía una distopía entretenida empieza a sentirse como una advertencia que no supimos leer a tiempo.

El sesgo del paradigma

Mi hipótesis personal es que el miedo al apocalipsis tecnológico —por legítimo que sea en algunos de sus argumentos— nace, en buena medida, de un sesgo perceptivo que los propios científicos que lo expresan no logran ver. Un sesgo comprensible, porque está en el interior mismo del paradigma desde el que construyeron toda su comprensión del mundo.

La ciencia contemporánea dominante opera desde una visión fundamentalmente materialista de la realidad: todo lo que existe puede, en principio, reducirse a interacciones físicas, químicas, biológicas y computacionales. Es un paradigma enormemente poderoso y productivo. Ha producido vacunas, semiconductores, naves espaciales y, ahora, inteligencias artificiales capaces de ganar al ajedrez, diagnosticar cánceres y escribir poesía. Nadie puede razonablemente cuestionar sus logros.

Pero ese mismo paradigma tiene límites que raramente se reconocen. Y cuando los científicos que lo habitan proyectan el futuro de la inteligencia artificial, lo hacen desde dentro de esos límites, sin advertir que están omitiendo dimensiones de la existencia humana que no encajan en sus modelos, pero que no por eso son menos reales.

El error de confundir inteligencia con conciencia

El error conceptual más importante que veo en todos estos pronósticos apocalípticos es uno solo: confundir inteligencia con conciencia.

La inteligencia —incluso la más avanzada— es definible. Es, en esencia, una capacidad para procesar datos, reconocer patrones, generar soluciones a problemas complejos y anticipar escenarios futuros. Es una habilidad sofisticada, sí. Pero es una habilidad programable, modelable, escalable. Y un dato central: Siempre está al servicio de las intenciones de quien la diseña.

Una inteligencia artificial, por más extraordinaria que sea, no tiene intenciones propias: tiene intenciones programadas. Lo que podríamos llegar a percibir como voluntad autónoma en una IA no deja de ser, en el fondo, el reflejo de los objetivos para los que fue construida. Y si la IA es una herramienta, debemos reconocer un principio central de toda herramienta, y es que estas nunca son un problema en sí mismas. Desde que el ser humano talló la primera lanza, pasando por la pólvora, la energía nuclear y la biotecnología, las herramientas nunca han sido unaamenaza. La amenaza siempre ha sido la intención a la que responden.

La conciencia, en cambio, es otra cosa. Y aquí está el corazón del problema: Si somos honestos, los seres humanos no sabemos qué es.

La conciencia humana tiene un rasgo central, aunque no es el punico: la capacidad de tener intenciones propias —no programadas, no derivadas de un diseño externo, sino emergentes desde un interior que todavía no sabemos cómo describir.

Alguien podría argumentar, con razón, que los animales tienen algún grado de conciencia y que la mayor parte de sus comportamientos responde a programaciones evolutivas orientadas a la supervivencia de la especie. Es real. Pero ¿podemos afirmar con total certeza que eso agota la definición de lo que es un animal? ¿Que la suma de sus programaciones biológicas describe por completo su conciencia? Si somos honestos, no tenemos una respuesta certera para eso. Sabemos que la evolución ha tallado en cada especie un repertorio de respuestas e impulsos, pero no podemos demostrar que la conciencia de un animal —ni la del ser humano— sea simplemente la suma de esas capas de programación. Básicamente porque cuanto mas sabemos acerca de lo que es la vida, y el universo mismo, más nos damos cuenta de que lo que entendemos es muy poco. En última instancia, si alguien intentara replicar en una inteligencia artificial ese tipo de intencionalidad compleja, el resultado no dejaría de ser exactamente lo mismo: el producto de una intención humana. La herramienta más sofisticada del mundo sigue siendo una herramienta.

Quienes sostienen que la conciencia es simplemente el resultado emergente de una suma suficientemente compleja de interacciones neuroeléctricas y bioquímicas están haciendo, básicamente, una afirmación de fe. Una afirmación que encaja bien con el paradigma dominante, pero que deja fuera una cantidad considerable de datos que ese mismo paradigma no logra explicar.


Los hallazgos científicos que ignoramos para no incomodarnos

Existen abundantes investigaciones científicas publicadas en revistas de primer nivel que desafían seriamente la idea de que la conciencia humana sea simplemente el producto de la actividad neuronal. No se trata de esoterismo ni de creencias sin sustento: son datos que incomodan al paradigma dominante precisamente porque provienen del interior de ese mismo paradigma, con sus propias metodologías y estándares de rigor:

El cuerpo que siente antes de ver.
El HeartMath Research Center publicó en 2004 —en estudios indexados en PubMed— una serie de experimentos en los que se medía simultáneamente la actividad cardíaca y cerebral de participantes mientras se les presentaban imágenes aleatorias: algunas neutras, otras emocionalmente perturbadoras. El hallazgo fue que tanto el cerebro como, especialmente, el corazón mostraban respuestas fisiológicas diferenciadas ANTES de que la imagen apareciera en pantalla —cuando era físicamente imposible saber cuál vendría. Investigadores de la Northwestern University, junto con Jessica Utts (estadística de la Universidad de California) y Dean Radin del Institute of Noetic Sciences, consolidaron estos resultados en una meta-análisis de 26 estudios provenientes de siete laboratorios independientes, publicado en *Frontiers in Psychology* en 2012. El efecto fue estadísticamente robusto y consistente entre laboratorios. Lo llamaron *Predictive Anticipatory Activity*: el cuerpo humano parece capaz de distinguir fisiológicamente, con varios segundos de anticipación, entre estímulos que aún no han ocurrido. No existe explicación para esto dentro del modelo neurológico estándar.

Cerebros que se sincronizan sin contacto.

El neurocientífico mexicano Jacobo Grinberg-Zylberbaum, desde su laboratorio en la UNAM y con financiamiento del CONACYT, En la década del 90 realizó durante más de cinco años más de cincuenta experimentos sobre lo que denominó “potencial transferido”. En el diseño más conocido, dos personas meditaban juntas durante veinte minutos y luego eran separadas en cámaras de Faraday —aisladas electromagnéticamente— ubicadas a más de catorce metros de distancia. Cuando a una de ellas se le presentaban destellos de luz aleatorios, en aproximadamente uno de cada cuatro casos el EEG de la otra mostraba patrones similares, sin ningún contacto sensorial entre ellas. Los resultados se publicaron en *Physics Essays* y en el *International Journal of Neuroscience*. Grinberg los interpretó como evidencia de correlaciones no-locales entre cerebros, un fenómeno que los marcos explicativos vigentes simplemente no contemplan.

Conciencia durante la muerte clínica.
En 2001, el cardiólogo holandés Pim van Lommel publicó en *The Lancet* —una de las revistas médicas más prestigiosas del mundo— los resultados de un estudio prospectivo con 344 pacientes resucitados tras paros cardíacos en diez hospitales. Entre el 10 y el 18% reportaron experiencias de conciencia clara, estructurada y emocionalmente intensa durante el período en que su cerebro, clínicamente, no funcionaba: electroencefalograma plano, sin actividad cortical medible. Lo que perturbó a van Lommel fue la imposibilidad de atribuir el fenómeno a ninguna variable fisiológica: la duración del paro, la medicación, el miedo previo o las creencias religiosas no predecían quién tendría esa experiencia. Estudios prospectivos posteriores, con un total acumulado de más de 560 pacientes, replicaron los mismos resultados. Su conclusión, publicada luego en el *Journal of Consciousness Studies*, fue que la conciencia podría no estar alojada exclusivamente en el cerebro.

El futuro que influye sobre el presente.
En 2011, el psicólogo de Cornell University Daryl Bem publicó en el *Journal of Personality and Social Psychology* los resultados de nueve experimentos con más de 1.000 participantes que sugerían que las respuestas cognitivas y afectivas de las personas podían ser influenciadas por eventos aleatorios que aún no habían ocurrido. Un meta-análisis posterior de 90 experimentos replicando el protocolo confirmó efectos estadísticamente significativos. El artículo provocó una controversia enorme, en parte porque los datos eran difíciles de refutar metodológicamente, y en parte porque sus implicaciones —que el tiempo podría no ser tan unidireccional como asumimos— resultaban directamente inaceptables para el paradigma vigente.

El problema con los paradigmas

Cada vez que aparecen datos que no encajan con la imagen del mundo que la ciencia dominante ha construido, sucede algo predecible: aparecen detractores que los atacan con una ferocidad que, en muchos casos, supera con creces lo que justificaría una revisión metodológica honesta. Puede haber críticas completamente válidas y necesarias —la ciencia necesita ese escrutinio para funcionar— pero nunca queda del todo claro hasta qué punto esos ataques responden a una observación genuinamente abierta de los datos, y hasta qué punto son la expresión de una defensa inconsciente de la imagen del mundo en la que esos científicos han invertido toda su carrera y su identidad.

Thomas Kuhn lo describió hace más de sesenta años en *La estructura de las revoluciones científicas*: los paradigmas no se abandonan cuando aparecen datos que los contradicen. Se abandonan cuando la acumulación de anomalías ya no puede ignorarse y cuando llega una nueva generación sin tanto invertido en el esquema anterior.

Hay otro factor que raramente se nombra en estas discusiones: la ciencia no es neutral en sus prioridades. La investigación de frontera está financiada, en su gran mayoría, por intereses económicos, corporativos o militares que tienen una orientación muy precisa: lo físico, lo químico, lo eléctrico, lo computacional, lo cuantificable y, sobre todo, lo rentable. Lo que no puede convertirse en producto, en patente o en ventaja competitiva tiende a quedar en los márgenes, independientemente de su relevancia para comprender la experiencia humana. Las dimensiones de la conciencia que no caben en el paradigma vigente tampoco caben fácilmente en un modelo de negocios. Y eso tiene consecuencias directas sobre qué se investiga, qué se financia y qué se considera conocimiento “serio”.

El verdadero problema

Podemos crear, como humanidad, inteligencias artificiales extraordinariamente avanzadas. Probablemente ya lo estamos haciendo. Pero hay algo que es altamente improbable que podamos crear: conciencia. Una entidad que tenga verdadera conciencia de sí misma, que genere intenciones propias no programadas, que experimente el mundo desde un interior irreductible. Toda intención que percibamos en una inteligencia artificial seguirá siendo, en última instancia, una intención programada. Porque la inteligencia artificial, por más que evolucione, no dejará de ser una herramienta. Y las herramientas, insisto, nunca han sido el problema.

El problema real no es que la IA pueda llegar a tomar el control del mundo o llevar al ser humano a la extinción por voluntad propia. El problema real —y este sí merece toda nuestra atención— son las intenciones de las personas y las organizaciones que controlan las inteligencias artificiales más avanzadas del planeta. Personas y organizaciones sobre las que, en muchos casos, sabemos muy poco. Cuyas motivaciones no siempre son transparentes. Que operan con recursos, velocidad y opacidad que superan con amplitud la capacidad de cualquier regulación democrática vigente.

El miedo al robot rebelde es, en cierta forma, una distracción cómoda. Nos permite preocuparnos por una amenaza abstracta y cinematográfica mientras evitamos mirar de frente la más concreta y humana: que las herramientas más poderosas que la humanidad ha construido estén siendo controladas por una fracción muy pequeña de ella, sin demasiado consenso sobre para qué ni para quién.

Esa sí es una conversación que vale la pena tener.

Lic. Enrique Grandolini