top of page

Yo, robot

Por: Pascual Gaviria Uribe



Desde la estación espacial la tierra se ve un poco más brillante que la infinidad de luces que titilan, los ojos humanos le entregan una luz dada por la intensidad del temor y la cuenta regresiva para volver al planeta amado. A bordo de la estación, dos hombres dialogan con Cutie, un robot especializado en análisis de datos y en control los sistemas de energía solar para la explotación de planetas cercanos. Cutie ha comenzado a pensar demasiado, olvida sus cuentas y busca sentido en medio de esa oscuridad iluminada. Los humanos lo miran con algo de condescendencia y tratan de explicarle: “Ahora quiero que me escuches atentamente. Lo negro es vacío, inmensa extensión vacía que se extiende hasta el infinito. Los pequeños puntos brillantes son enormes masas de materia saturadas de energía. Son globos, algunos de ellos de millones de kilómetros de diámetro…” Luego le señalan “la buena y vieja tierra” y le dan un dato más para sus matemáticas: “Somos tres mil millones allá, Cutie”. La máquina no parece muy convencida.


Lea también: Conectividad digital: el petróleo del siglo XXI


La escena sucede en las páginas del libro Yo, robot de Isaac Asimov, publicado en 1950 y compuesto de una serie de relatos basados en las tres leyes de la robótica. En 1942 Asimov formuló esa minúscula ética para esos artefactos presuntuosos: “Primera Ley. Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño. Segunda Ley. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley. Tercera Ley. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.” Se trataba de un mandato ineludible, el primer conflicto con las leyes desmontaba automáticamente al robot.

revolución robot robots robótica tecnología


Hace unas semanas aparecieron una serie de entrevistas inquietantes en varios de los medios más prestigiosos del mundo. En todas respondía Geoffrey Hinton, un informático inglés de 75 años, señalado de ser uno de los padres putativos de la Inteligencia Artificial. Hinton dejó su trabajo en Google y salió con interrogantes y temores sobre sus “juguetes”: “Me consuelo con la excusa normal: si no lo hubiera hecho yo, lo habría hecho alguien más”, dijo para mejorar su conciencia demasiado humana. Uno de los temores de Hinton es la posibilidad de que la Inteligencia Artificial pueda crear muy pronto “robots asesinos”. Entonces los ejércitos no acumularían drones, tanques y aviones sino también robots agazapados, listos para la batalla. Sin objeción de conciencia. Las armas autónomas, nombre técnico de los robots de guerra, podrían ejercer violencia más allá de las órdenes y los programas controlados. No entienden las leyes de Asimov.


Lea también: Usted, ¿ya usa ChatGPT?


Cutie empieza a dudar se sus programadores. Los ve blandos, susceptibles al calor, a la humedad y la radiación. Además, inventan historias lejos de su programación. A la pregunta de por qué existe, uno de los humanos le dice que ellos lo crearon para hacer tareas más o menos complejas: “¿Esperas acaso que dé crédito a alguna de estas absurdas hipótesis que acabas de exponerme? ¿Por quién me tomas?”. Cutie se torna escéptico y está convencido de que los humanos son solo un eslabón primitivo para la llegada de una nueva “especie”, más fuerte e inteligente: “He pasado estos dos últimos días en concentrada introspección, dijo Cutie…Yo, por mi parte, existo, porque pienso”. Su compañero humano le responde con una burla de bachillerato: “¿Quién es Descartes?”.


La lucha entre los humanos y ese “montón de metal” sigue en el espacio y en las páginas de Asimov. Y ahora nos compete cada día más. Veremos quién desconecta a quién.

bottom of page