Entre el miedo y la esperanza. El futuro incierto (y muy humano) de la inteligencia artificial.
![]() |
| Imagen diseñada por Freepik |
Últimamente,
pareciera que todo el mundo habla de inteligencia artificial (IA). Para
algunos, es la herramienta que nos llevará al siguiente gran salto de la
humanidad; para otros, representa el principio del fin.
Dos textos
recientes lo abordan desde ángulos distintos, pero en mi opinión, complementarios:
Primero, El
futuro de la IA, del tecnoapocalipsis a la tercera vía de Eduardo
Turrent Mena (Letras Libres) y segundo, La
inteligencia artificial no es peligrosa, las corporaciones sí de
Claudio Martínez (Perfil).
Ambos,
aunque parten de lugares diferentes, terminan haciéndonos la misma pregunta
incómoda:
¿El peligro está en la máquina… o en quien la controla?
Turrent
Mena parte de un escenario muy familiar: vivimos atrapados entre dos discursos.
El primero,
el del tecno-apocalipsis, el cual nos pinta un futuro dominado por
máquinas que piensan mejor que nosotros, donde el ser humano se vuelve
obsoleto. El segundo, el de los evangelistas tecnológicos, el cual promete que
la IA resolverá todos los males de la humanidad, desde el tráfico hasta la
pobreza.
Entre estos
dos discursos, el autor propone algo más sensato: una “tercera vía”, un
punto medio donde reconozcamos que la inteligencia artificial transformará
nuestra vida, sí, pero que su impacto dependerá más de nuestras decisiones
humanas que de las capacidades técnicas de los algoritmos.
En otras
palabras: no se trata de tenerle miedo a la tecnología, sino de aprender a
gobernarla.
Esa idea me
parece especialmente relevante para países como México y otros de América
Latina. En donde pareciera que aún no decidimos del todo qué tipo de desarrollo
tecnológico queremos. ¿Buscamos simplemente “alcanzar” a otros países o
construir un modelo de IA que responda a nuestras realidades, que sirva a
nuestras comunidades, que respete nuestra diversidad?
Esa
elección parece que será la verdadera frontera entre el progreso y la dependencia.
En el texto
de Claudio Martínez, la conversación da un giro interesante. Él afirma que la
IA, en sí misma, no es peligrosa. Lo que sí puede serlo, y mucho, son las
corporaciones que la controlan.
Detrás de
cada modelo de IA hay intereses, estructuras de poder y economías que no
siempre buscan el bien común. Y ese, según Martínez, es el verdadero riesgo:
que terminemos viviendo en un mundo diseñado desde los escritorios de unos
cuantos tecno-magnates, donde el poder económico dicta lo que se puede y lo que
no se puede hacer.
Es aquí donde
la historia se pone interesante.
No es un
robot rebelde quien amenaza la autonomía humana, sino un sistema donde los
algoritmos deciden sin transparencia y las decisiones automatizadas refuerzan
desigualdades.
No se trata
del mito de la máquina que nos supera, sino del peligro, muy real, de que el
control tecnológico quede concentrado en pocas manos.
Ambos
textos se encuentran en un punto común: la inteligencia artificial no es un
destino inevitable, sino un espejo. Refleja nuestras ambiciones, nuestros
miedos y, sobre todo, nuestro modo de organizar el poder.
Podemos
usarla para amplificar oportunidades, mejorar la educación, optimizar los
recursos, crear nuevas formas de trabajo. Pero también podríamos usarla, y ya
está ocurriendo, para manipular información, vigilar ciudadanos o desplazar
empleos sin ofrecer alternativas.
La
diferencia la marcará la intención, la ética y la regulación.
Pero, sobre
todo, la participación; no podemos dejar que otros decidan por nosotros cómo se
usará la IA.
Quizá el
futuro no sea un apocalipsis ni una utopía, sino una larga negociación entre lo
humano y lo digital. Y ahí, en ese punto intermedio, está nuestra tarea: no
temerle a la IA, pero tampoco rendirle culto.
Comprenderla,
cuestionarla y usarla con propósito.
Porque el
verdadero problema no está en que las máquinas lleguen a pensar, sino en que
nosotros dejemos de hacerlo.
Pero ¿tú qué
opinas? ¿Qué medidas son imperativas para enfrentar los retos en la aplicación
de la inteligencia artificial?
Déjame saber
tu opinión.
Hasta la próxima.
—Jorge García, AIGüey.

Comentarios
Publicar un comentario