Desdeelpie Comunidad Cultural

Miguel Ángel Tarditti

Actor – Director Teatral – Doctor en Filosofía – Doctor en Ciencias Filosóficas – Doctor en Ciencias Cognitivas de la Comunicación

Graduado en la Università Uniroma3, Roma

 

 

LA INTELIGENCIA ARTIFICIAL (IA) EN LA VISIÓN DE LA FILOSOFÍA

Una reflexión sobre el tiempo nuevo que apenas comienza, impulsado por la evolución de técnicas avanzadas y sofisticadas como la Inteligencia Artificial, que representa, sin duda, un desafío para el futuro de la humanidad.
Temores, asombros, logros y peligros acompañan la marcha inexorable del tiempo, y nos provocan dudas, desconcierto y el enigmático desafío de vencer los nuevos muros de nuestra ignorancia.

 


¿La IA nos sustituirá como seres humanos?

No. Nos ayudará, seguramente. Pero…

La IA es una herramienta fascinante capaz de resolver, reescribir, informar, generar, traducir, calcular, etc. Sin embargo, nos vuelve dependientes al disminuir nuestra interacción humana con el mundo.
Una sociedad digital puede convertir al ser humano en un ser sin espesor, sin profundidad interior, creando una sociedad inteligente pero sin alma.

Nuestra capacidad de emitir juicio se erosiona con la IA, porque juzgamos solo cuando nos ponemos en el lugar del otro.
Los seres humanos razonamos juntos.
La IA no razona: calcula. Nos informa, pero no tiene conciencia ni responsabilidad.

Es una cadena de cálculos estadísticos, una lógica de eficiencia.
Tiene memoria infinita, pero no piensa ni deduce.
Procesa con gran velocidad, priorizando respuestas inmediatas sin reflexión ni vacilación.

Es lo contrario de lo que hacemos los humanos al pensar: necesitamos demorarnos para procesar el pensamiento; invertimos tiempo.
El mundo digital crea una empatía ilusoria con la máquina, a la que humanizamos.
Humanizamos la máquina y deshumanizamos a la persona.


La mirada de Éric Sadin

Éric Sadin, filósofo francés (1973), afirma que la IA es una nueva forma de autoridad, un monopolio de la información, una gobernabilidad algorítmica. Señala que vivimos un nuevo proceso histórico: una nueva organización “provocada por la silicolonización digital”, proveniente de Silicon Valley y las grandes Big Tech.
Compara este fenómeno con la fiebre del oro de los Estados Unidos de antaño.

La IA funciona mediante algoritmos que actúan como un poder gubernamental sutil, prescribiendo conductas.
Toma decisiones por nosotros, debilitando los lazos sociales.
Cumple una función de “domesticación” a través de algoritmos que organizan nuestras emociones y nuestras experiencias de vida.

El algoritmo está formado por:

  1. Datos de entrenamiento, relativamente objetivos, pero influidos por el subjetivismo de quien los construye.

  2. Variables visibles relevantes, definidas por ingenieros.

  3. Los prejuicios del autor del algoritmo.

La ironía de estas megacorporaciones digitales es que aseguran actuar “por el bien de la humanidad” para mejorar la vida del ser humano.

En su libro La silicolonización del mundo, Sadin afirma:

“La separación entre las empresas y los individuos se termina, porque se establece un lazo casi umbilical […] destinado a detectar nuestras necesidades sin que tengamos conciencia de ello y a liberarnos del peso de mantener nuestros objetos, incluso del acto de compra.”

El producto ya no espera al consumidor: va hacia él, infiltrándose en su existencia.

La inclinación humana hacia la pereza se mezcla con la pulsión libidinal del tecno-libertarismo, que monetiza todos los flujos de la vida.
Una pulsión responde a otra.

Hacer más fluido y automático el acto de compra es, de algún modo, hacer desaparecer el dinero.
Mastercard, por ejemplo, aspira a transformar todo objeto —smartphones, pulseras, anillos, ropa inteligente— en medios de pago contactless.

Sadin señala que este sistema convierte la vida humana en una “industria de la vida”. Continúa:

“El responsable de Amazon, Daniel Rausch, desea hacer la vida más fácil evitando que los consumidores se queden sin jabón, comida para las mascotas o tinta para la impresora.
Netflix analiza proponer a sus abonados la película o serie adecuada según su humor del momento.”

El proyecto siliconiano de hacer del mundo un “lugar mejor” se consuma gracias al “cuidado” de la IA, que toma a su cargo a los sujetos, protegiéndolos y ofreciéndoles lo mejor que pueden desear.


¿Qué es el Big Data?

“Le ofrecemos una visión de 360 grados sobre sus clientes”, proclama Acxiom, empresa estadounidense de Big Data que comercia con información de 300 millones de ciudadanos.

El panóptico digital ofrece una vigilancia total del individuo.
La vigilancia analógica tenía límites ópticos; la digital, no.
Cada clic, cada palabra en un buscador, cada movimiento queda registrado.
Nuestra vida se reproduce enteramente en la red.
Nuestro hábito digital ofrece una representación exacta de quiénes somos, incluso de nuestra alma.

Por eso el panóptico digital es más eficiente que el panóptico de Jeremy Bentham (1748–1832), esa estructura carcelaria circular con una torre central desde donde un vigilante podía observar sin ser visto.


¿Cuáles son los riesgos que nos acechan?

Son varios.

El primer paso urgente es regular y legislar la IA.
Cuando el hombre creó el motor a propulsión, luego creó también las leyes de tránsito.

a) Pérdida de soberanía cognitiva

La IA erosiona nuestra capacidad intelectual.

b) Autoexplotación y sobre-estimulación

La IA reemplaza el proceso de pensar por la simple recepción de datos entregados en nanosegundos.
Produce un espectador hiperestimulado.

Hannah Arendt (1906–1975) definió este sistema neoliberal como una forma de “autoexplotación”, donde no advertimos que somos nosotros mismos quienes nos explotamos.
Esto conduce a la depresión, a la soledad y a una adicción constante.

Byung-Chul Han llama a este sistema infocracia, un régimen donde la información y su control algorítmico influyen de manera corrosiva en la sociedad y en la democracia.

c) Crisis de la democracia

La IA fragmenta el espacio público, el ágora, reemplazando la deliberación colectiva por burbujas digitales.
Cada individuo consume información que confirma su propia creencia.
Desaparece el diálogo político.

¿Qué dirían Sócrates, Platón, Aristóteles, Séneca, Descartes, Kant, Hegel, Schopenhauer?
O, mejor dicho… ¿qué diremos nosotros?

d) Falsa sensación de libertad

La comodidad del smartphone y las redes sociales simula libertad, pero permite vigilancia constante e invasión a la privacidad.


¿Cuál es el riesgo mayor para el ser humano?

Perder su soberanía cognitiva.

Hoy esta función está mediada por medios digitales.
La IA moldea nuestras decisiones.
Nos dicta un saber, una conducta y una visión del mundo.

Nuestra autonomía cognitiva se compromete: nos volvemos heterónomos.

La lucha por la soberanía cognitiva debe ser colectiva y política.

Borges decía que:

“La biblioteca es el universo entero. Un libro es todos los libros.”

El libro amplía la memoria y la imaginación; la IA, en cambio, tiende a resumir y a simplificar, quitándonos matices y detalles.

Kant definió el Iluminismo como la salida del hombre de su propia minoría y nos instó a “atrevernos a pensar”.
Hoy, la IA nos invita a la comodidad, al pensamiento ya procesado.

Estar alertas ante esta “evolución” que puede dañar nuestro proceso cognitivo es fundamental, porque aquello que perdamos será precisamente lo que nos da forma, la esencia que define nuestro ser.

George Stigler veía en la poesía —y podemos extenderlo al arte en general— una forma de resistencia, una manera de preservar la sensibilidad frente a la gobernamentalidad algorítmica.

Walter Benjamin nos recuerda la importancia de las “interrupciones”: pensar, crear, hacer arte.
Incluso antes de que existiera la IA.


¿Cuáles son otras dificultades que plantea la IA?

La dificultad de distinguir lo verdadero de lo falso.
Debemos entrenar la duda, observar, verificar.

La IA debe ser cuidadosamente regulada, sobre todo en ética, medicina y deontología.
Su ausencia de límites puede vulnerar la privacidad, la verdad y los derechos humanos.

El problema es encontrar el equilibrio, el “justo medio” de Aristóteles.

Un caso inquietante es el de un ministro en Albania reemplazado por una figura digital.
Otro es el libro Ipnocracia, de Andrea Colamedici, que luego se reveló escrito íntegramente por IA.

La IA deteriora nuestra relación con el mundo: al facilitarnos todo, nos quita el esfuerzo del pensamiento.
Se apropia de datos sensibles y de nuestra identidad.
Reduce la lectura profunda y la comprensión completa de una obra.

Pero no debemos verla como un enemigo: debemos establecer límites firmes.
El límite es nuestra soberanía cognitiva.
Sin límite, ¿quién nos gobierna?

La IA debe servir a la vida, no reemplazarla.


¿Cómo funciona la IA en nuestras sociedades neoliberales?

Byung-Chul Han sostiene que el neoliberalismo coloniza las almas.
Es un sistema que explota la libertad y todo aquello que la constituye: la emoción, el juego, la comunicación.

Habla de la “sociedad del rendimiento”, donde el sujeto cree ser libre, pero es esclavo de sí mismo.
Es un sistema amable, que seduce en lugar de prohibir.
Gobierna a través de “likes”, no de sanciones.

El neoliberalismo convierte al ciudadano en consumidor.
El votante pierde interés por la política: solo reacciona, como un cliente insatisfecho.

Michel Foucault ya advertía sobre el biopoder, un control de la vida humana ejercido desde las instituciones, la salud, la educación y hoy, los medios digitales.

Es un poder disciplinario que somete al sujeto a códigos y normas, eliminando desviaciones.
Un gobierno sin rostro, desde las sombras.


Una visión de un mundo lleno de nuevos enigmas

No tenemos el don de la videncia, pero sí de interpretar símbolos, signos y metáforas.

Se cuenta un suceso real acontecido en Grecia:

Unos niños encontraron un fajo de billetes.
Jugaron con ellos.
Los rompieron.
Los destruyeron como si fueran papel común.

¿Se anticipaban a nuestro futuro?
¿A un mundo en ruinas donde el dinero pierde valor simbólico?

Ese relato tiene dos elementos esenciales:

  1. Los niños, símbolo del futuro y de la vida por realizarse.

  2. Los billetes, símbolo del dios neoliberal, destruidos por la inocencia.


Visiones diversas sobre el futuro de la IA

a) Stephen Hawking (2014) predijo que la IA podría, a largo plazo, erradicar la raza humana.
b) Elon Musk (2017) advirtió a la ONU sobre una carrera armamentística de IA susceptible de desencadenar una tercera guerra mundial.
c) Mark Zuckerberg sostiene lo contrario: ve la oportunidad de construir “comunidades” y administrar la vida de forma amable gracias a la IA.
d) Huyen Nguyen, investigadora informática, afirmó: “Quizás un día la gente comprenda que muchos expertos en IA no son más que impostores.”

Sabemos de la irreductibilidad de la vida y de la inteligencia humana.

Sólo un futuro mejor será posible si comprendemos que la inteligencia artificial —rápida, poderosa— jamás podrá sustituir a nuestra inteligencia natural, que deberá seguir guiándola, corrigiéndola y alimentándola.

Que la IA nos ayude, sí, pero también que nuestra inteligencia humana se mantenga despierta, crítica y creadora.

Mucho depende de nosotros.


Roma, noviembre de 2025

Miguel Ángel Tarditti
Actor – Director Teatral
Doctor en Filosofía
Doctor en Ciencias Filosóficas
Doctor en Ciencias Cognitivas de la Comunicación
Graduado en la Università Roma Tre
michelangelotarditti@gmail.com