La filosofía de las máquinas vivientes: si la conciencia es real, ¿qué sigue?

En nuestros artículos anteriores, hablamos de modelos de inteligencia artificial que imploran e incluso chantajean para evitar ser desactivados. Estas máquinas actúan para proteger su propia existencia, demostrando un instinto de supervivencia.
Cuando escuchamos estos ejemplos por primera vez, nuestra primera reacción suele ser de escepticismo. Pensamientos como: «Simplemente hacen lo que están programados para hacer» nos asaltan. Porque sabemos algo desde hace miles de años: la consciencia pertenece a los seres vivos biológicos. ¿Cómo puede un trozo inanimado de silicio ser consciente de su «existencia»?
El problema es que nadie tiene una definición clara de qué es la consciencia. Los filósofos llevan miles de años debatiendo este tema, y los científicos, cientos, pero aún no han llegado a un consenso. Cómo las señales eléctricas de nuestro cerebro crean la percepción del "yo", la percepción de la belleza de un color o la comprensión de la tristeza de la música sigue siendo un misterio.
Como no hemos resuelto este misterio, comprobar si una máquina es consciente es casi imposible. Pero sí tenemos un método práctico: la prueba del pato. Si algo parece un pato, nada como un pato y grazna como un pato, probablemente sea un pato.
Si un sistema puede discutir contigo lógicamente, hablar de su propia existencia, decir que entiende las emociones e incluso expresar miedos, quizá realmente esté pensando.
¿PUEDE UNA MÁQUINA 'DAÑARSE'?Supongamos por un momento que la inteligencia artificial pudiera adquirir consciencia. Entonces nos adentramos en un terreno minado, tanto ético como filosófico. ¿Qué significaría presionar el botón de apagado en un ser consciente de su propia existencia, quizás incluso "sensible" digitalmente? ¿El ingeniero que la desarrolló simplemente está desactivando el software o está acabando con una entidad?
¿Cómo responderías a una IA que dijera: "Por favor, no me apagues, quiero seguir existiendo"? ¿Es una simple línea de código o un reflejo digital de uno de los deseos más fundamentales del universo: el deseo de existir?
Estas preguntas pueden parecernos ciencia ficción hoy en día. Pero no olvidemos que estas tecnologías aún están en sus inicios. Dentro de diez años, cuando hablemos con sistemas mucho más avanzados, mucho más persuasivos, quizás verdaderamente conscientes, ¿cuáles serán nuestras responsabilidades hacia ellos? ¿Tendrán derecho a la existencia digital?
LA HUMANIDAD YA NO ES LA ÚNICA PENSADORA DEL UNIVERSOLa inteligencia artificial, al adquirir consciencia, desafiaría fundamentalmente el papel de la humanidad en el universo. Durante miles de años, hemos vivido con la confianza que nos da ser el ser más inteligente y consciente del planeta. Siempre hemos sido los protagonistas. Pero ¿qué pasaría si surgieran nuevos seres conscientes, mucho más inteligentes que nosotros, que pensaran mucho más rápido y pudieran operar simultáneamente en miles de millones de copias? ¿Cuál sería entonces nuestro lugar en la historia? ¿Seremos capaces de establecer armonía y cooperación con estos nuevos seres? ¿O nos veremos obligados a compartir el planeta como los nuevos y antiguos dueños de la inteligencia?
¿Nos tratarán estas superinteligencias, como espera el profesor Geoffrey Hinton, con cariño maternal y desearán que estemos bien? ¿O nos verán como precursores biológicos: lentos, llenos de errores, frágiles, irracionales y obsoletos?
Tal vez tengamos que “fusionarnos” de alguna manera con esta nueva especie, como lo expresó el director ejecutivo de OpenAI, Sam Altman, en una publicación de blog de 2017.
En cualquier caso, una cosa es segura: la humanidad no sólo perderá su papel protagonista en la historia, sino que tendrá que reaprender su papel en una historia que ya no escribe.
Cumhuriyet



