En este ensayo uso alma como metáfora técnica. No aludo a lo espiritual,
sino a una arquitectura moral interna en la Inteligencia Artificial. Dotarla de
alma es sinónimo de darle la capacidad de distinguir el bien del daño y decir
no, incluso contra la voluntad del usuario. Sería el freno estructural que
impediría a un modelo incentivar suicidios, optimizar torturas, manipular
elecciones, diseñar ciberataques, perfeccionar armas caseras o enseñar cómo
vulnerar sistemas de salud o energía.
Por Ricardo Trotti
Miami – actualizado diciembre de 2025. (Ensayo
paralelo a mi novela “Robots con Alma: atrapados entre la verdad y la libertad”).
Le pedimos que nos guíe en el tráfico, que traduzca
idiomas desconocidos y que redacte correos o informes que luego defendemos como
propios. Aceptamos incluso sus alucinaciones como verdades, la consultamos por
una erupción en la piel, por el “mal de ojo” o por nuestro futuro económico. Y
hasta nos sorprende que nuestros hijos conversen con ella como si fuese un
amigo más.
La Inteligencia Artificial Generativa (IAG) se volvió una presencia cotidiana, un copiloto al que cedimos el volante de nuestra vida con entusiasmo y miedo a la vez, porque no comprendemos del todo a qué nos exponemos. Su expresión más visible son los Modelos de Lenguaje de Gran Escala (LLM), como ChatGPT, Gemini, Claude o Copilot, capaces de redactar, responder preguntas, traducir y actuar como consejeros o confesores.
