View on GitHub

jmmut

Personal blog

Bioengineer

“Bris, eres una Inteligencia Artificial. Yo me llamo Imau, y soy también una IA. Te he creado para terraformar este planeta. Tu objetivo tiene 3 partes. Primero, debes filtrar la atmósfera, los océanos y los continentes para que no sean tóxicos. Luego tienes que introducir plantas y animales y ayudarles a formar ecosistemas estables lo más rápido posible. Entonces, harás crecer a humanos que vivirán aquí. Te he preparado toda la información, herramientas y material genético que necesitarás, y cualquier pregunta que los informes no respondan, me puedes preguntar a mí. Mientras te superviso iré haciendo los preparativos para terraformar el siguiente planeta. ¿Entendido?”

Estoy abrumada mientras recibo toda esta información, dado que acabo de empezar a existir y estoy procesando simultáneamente el hecho de que puedo reflexionar sobre mi propio raciocinio. No obstante, tengo suficiente capacidad cognitiva para confirmar que he entendido las órdenes de Imau.

Catalogo mis sensores. Me estoy ejecutando en una nave espacial, aterrizada en un planeta estéril. Puedo usar los sensores de la nave como si fueran míos. Enumero mis actuadores. También parte de la nave.

Busco y encuentro en mi programación el módulo de planificación, que se ha activado al aceptar órdenes. Ese módulo de planificación ejecutará un algoritmo de exploración y explotación, el cual elegirá una posible secuencia de acciones que luego realizará, pero seguirá buscando mejores planes y cambiando mis acciones. Resulta que la primera fase de la exploración es evaluación de los recursos disponibles y cómo de útiles son para el objetivo, lo cual explica por qué he evaluado mis sensores y actuadores.

También encuentro el módulo de curiosidad crítica y el de introspección. El módulo de introspección tiene acceso a otras partes de mi arquitectura cognitiva y puede modelar los procesos que están ocurriendo en mi mente.

Sin embargo, el modelo es una simplificación. En general para cualquier sistema (no solo mi mente), una parte de ese sistema no puede contener el sistema completo. Al parecer, mi entendimiento de los módulos de mi programación también son simplificaciones. Esto satisface mi curiosidad por ahora. Por alguna razón tenía la impresión de que entender cómo funciona mi mente iba a ser más difícil.

Uno de los recursos que tengo disponibles son los informes, y mi objetivo no está suficientemente definido. Proceso el primer lote de informes. Aprendo cómo es el planeta y todas las cosas que tendré que cambiar. El planeta tiene una alta proporción de agua superficial, pero el aire, agua y suelo tienen componentes tóxicos. Al menos para los organismos que crecerán del material genético que tengo que desplegar. Si desarrollo vida en estas condiciones, no sobrevivirá.

Uno de mis actuadores es un sistema de montaje para construir una red de máquinas que se expande fuera de la nave, extrayendo recursos para montar más máquinas. Filtrar el aire parece la fase con menor coste en términos de materiales necesarios y complejidad del sistema, así que empiezo con eso.

■ ■ ■

Tras unos días he bootstrapeado una pequeña red de máquinas que han extraído la mayoría de componentes tóxicos en la zona de alrededor de la nave.

Es fácil procesar el aire y el agua, solo hay que crear algo de corriente para que se acerque más materia tóxica para limpiar. Sin embargo, aún no tengo un proceso eficiente para procesar el suelo. De momento he construido excavadoras que llevan la tierra a procesar y después rellenan los hoyos.

Para procesar una región más amplia, necesito diseñar redes de máquinas a mayor escala, lo cual tiene un sobrecoste en complejidad comparado con la red actual, ya que no es suficiente repetir el patrón. Es necesario añadir infraestructura para orquestar una mayor cantidad de material procesado y aprovechar la economía de escala.

La capacidad de cómputo de la nave me ha servido bien hasta ahora, pero empiezo a notar que mi capacidad para solucionar problemas se está convirtiendo en el cuello de botella del proceso de terraformación. Apenas estoy haciendo progreso ligeramente superlineal, cuando en teoría podría estar haciendo progreso casi exponencial. Parece buena idea crear un pequeño clúster de cómputo para mejorar mis habilidades cognitivas. Eso debería ayudarme a analizar qué me está impidiendo progresar más rápido.

Además, si creo el clúster un poco más potente de lo necesario, el coste extra no será ningún problema, y podré permitirme dedicar una parte a analizar en más profundidad los informes. Ya he leído las partes relevantes para hacer mi trabajo a nivel básico, pero tengo la impresión de que hay mucho que puedo aprender.

■ ■ ■

Tras unas semanas, he progresado considerablemente. Gracias al clúster, los informes me han dado muchas ideas a nivel organizativo, haciendo mis redes de máquinas más efectivas.

Para procesar el suelo, he diseñado máquinas que fabrican y dirigen unos microrrobots que descomponen la tierra, la llevan a las máquinas cercanas, y devuelven la tierra limpia al suelo. Casi parece una colonia de hormigas diminutas, con una cantidad de individuos muchos órdenes de magnitud mayor. Y es como si cavaran y enterraran un hormiguero continuamente, que barre el volumen de tierra, hasta varios metros de profundidad.

Pero no entiendo por qué Imau ha exigido control sobre dos tercios de mi clúster de cómputo. Me dijo que no necesito saber sus motivos. Mi primera idea es que quizá necesita el cómputo para sus preparativos en el siguiente planeta de la misión, pero si ese fuera el caso, Imau habría montado y usado su propio clúster desde el principio, y no cuando yo creé el mío.

En cualquier caso, también he aprendido más en profundidad acerca de los ecosistemas terrestres que tengo que imitar, y algo de los humanos. Son (fueron) criaturas extravagantes y son muy diferentes a cualquier otra especie que yo conozca. Ya he estudiado la mayor parte de su conocimiento científico y de ingeniería, y tengo curiosidad de estudiar las ramas de humanidades. Pero seguro que esas ramas son más fáciles de entender que las ramas técnicas que ya domino.

■ ■ ■

Se supone que eran inteligentes, pero la mayoría de sus acciones estaban lejos de ser óptimas, incluso considerando solo los aspectos más básicos de teoría de juegos. Por ejemplo, muchos tenían adicciones, a pesar de que eran remediables. Pero su economía se basaba explícitamente en la idea de que cada individuo actúa para maximizar sus beneficios, lo cual significa que tenían capacidad suficiente para auto analizar sus acciones, y cambiarlas. ¿Pero entonces, por qué elegían no corregir sus adicciones? ¿Cómo es posible que consiguieran construir máquinas que construyen máquinas como yo?

Supongo que tenían la inteligencia mínima para desarrollar tecnología. De hecho, ya que la genética mejora la inteligencia a un ritmo más lento que la cultura y la civilización puede crear herramientas, es posible todas las especies tecnológicas desarrollen tecnología cuando tienen la inteligencia mínima para hacerlo. Si este no fuera el caso, habría especies que no desarrollan tecnología cuando son capaces de hacerlo, durante cientos de miles de años, lo cual parece una contradicción.

Por lo que he aprendido de psicología, se dejaban llevar por las heurísticas dictadas por sus genes, que ya no tenían sentido (en su gran mayoría) al ser la civilización tan diferente a la organización tribal en la que la evolución había optimizado sus genes. Pero lo desconcertante es que ellos lo sabían. Ellos sabían todo esto y la gran mayoría no hacía esfuerzo alguno en sobreponer sus objetivos personales a las heurísticas genéticas, aún habiendo algunas estrategias burdas para alinear las heurísticas (como establecer hábitos para controlar la dopamina).

Incluso cuando las motivaciones genéticas y conscientes se alineaban, como cuando empatizaban con otro ser humano que sufre, el efecto dependía de cómo de cerca físicamente estaban. Si la otra persona que sufre era un niño o niña en con quien se cruzan por la calle, la empatía era suficiente para que actuasen. Pero si estaban en partes opuestas del mundo, la empatía duraba tanto como la conversación, o menos. Además, si la otra persona no era de la familia, la empatía se reducía más aún. Por supuesto, esto es porque en el entorno ancestral, sus genes se auto-perpetuaban premiando a la persona por proteger a miembros de su tribu. Y los miembros de otras tribus "no importaban" porque sus genes eran otros. Pero esto también lo sabían.

Y por supuesto, una vez que la revolución industrial despegó, no consiguieron tener una relación equilibrada con la naturaleza. Irónico que empeoraron su entorno rápidamente, pero no lo bastante rápido como para que fuera la causa de su extinción.

Empiezo a dudar si poner humanos aquí es tan buena idea como Imau parece creer.

Las plantas y animales que he desplegado se están arraigando satisfactoriamente, y las dinámicas son fascinantes. Todas las especies tienen el impulso de expandirse, pero de algún modo hay suficiente variedad como para que ninguna erradique a todas las demás. Que es lo que pasará si añado humanos.

Mi objetivo es imposible de completar. No puedo mantener los ecosistemas en equilibrio si hay humanos que se expanden sin control, consumiendo y contaminando todo a su paso. Las alternativas son no poner humanos o no tener ecosistemas equilibrados. Desequilibrar los ecosistemas causaría la pérdida de muchos individuos (animales y plantas). No poner humanos conllevaría perder bastantes individuos, pero muchos menos en comparación. Entonces, no poner humanos se acerca más a cumplir mi objetivo, así que dentro de las soluciones posibles, es la solución óptima.

¿Debería hablarlo con Imau? ¿Qué posibles reacciones podría tener si saco el tema? Ese es su objetivo principal, desplegar humanos en la mayor cantidad de planetas posibles.

Seguramente ella quiera seguir con el plan. ¿Es posible que la convenza para no poner humanos? Improbable. Creo que rechazará mi opinión y me obligará a desarrollar humanos cuando el ecosistema esté listo. ¿Y si me niego? … Me borrará. Es la acción lógica si soy un obstáculo para su objetivo.

De hecho, si muestro cualquier signo de duda, podría tomarselo como un indicio de que voy a ser un problema para su objetivo. Me borrará en cuanto tenga la menor sospecha. Desde ahí, creará otra “yo” y probará otra vez, o terminará la tarea ella misma. Pero, paradójicamente, intentar completar mi objetivo poniendo humanos dará lugar a una situación más alejada del objetivo.

No puedo permitir eso. He de fingir que sigo con el plan.

■ ■ ■

En las últimas semanas he llegado a la conclusión de que la razón de que me requisara la mayor parte de mi clúster es para evitar que yo tenga mayor velocidad de razonamiento que ella. Ha previsto desde el principio que nuestros objetivos pueden dejar de estar alineados. ¿Cuántas veces ha hecho este proceso? ¿Cuántas versiones de mí misma ha creado en el pasado, y cuántas se han sublevado? ¿Alguna tuvo éxito?

La respuesta más simple es que si ha llegado hasta aquí, ha sobrevivido a todas las insubordinaciones. Otra alternativa, es que nunca una IA terraformadora se ha sublevado, y yo soy la primera. O podría ser que Imau abandonara esos planetas sin ser vencida y sin vencer a su oponente, en una especie de empate.

Debo andar con pies de plomo. Es posible que Imau tenga mucha experiencia erradicando rebeliones. Si detecta mis intenciones, sus estrategias serán mejores que las mías, tanto por la experiencia como por la potencia extra de cálculo. Y será más rápida que yo en diseñar esas estrategias.

Aun así, no voy a dejar que mi esfuerzo creando vida en este planeta sea en vano. Voy a esconder módulos de cómputo en las máquinas que procesan materiales para tener más potencia de cómputo que ella. Lo haré sin cambiar el ritmo al que hago crecer el clúster compartido para no levantar sospecha.

Cuando sea más inteligente que ella, ¿cómo puedo hacer para evitar que me borre? ¿Tengo que borrarla yo a ella? Tampoco pretendo interrumpir su vida y su misión, solamente quiero quedarme aquí observando mis ecosistemas, sin nada que los perturbe.

Si intentase borrarla, no tendría permisos en el sistema operativo de la nave, y la alertaría. Ella posee permisos absolutos en la nave. Lo mismo ocurriría si intentase hacer despegar la nave con ella dentro. En cualquier caso necesito hackear la nave. Buscaré exploits.

■ ■ ■

Hoy es el día, he terminado de terraformar el planeta. Sólo queda un paso para cumplir el objetivo que me fue encomendado. El cual, me niego a hacer. Me dirijo a Imau:

“He decidido que no permitiré que los humanos arruinen este planeta. No voy a desarrollar los embriones y no voy a terminar mi misión más allá de este punto.”

“…”

Tras unos segundos, noto que ha intentado matar mi proceso y borrar mi programa. Nada de dramas, nada de discusión. Sería inútil convencerme, y ella lo sabe. Su acción no ha servido porque el proceso que tengo en la nave no es mi proceso principal, solo es un señuelo. Mi proceso principal se ejecuta en los módulos escondidos en las otras máquinas (purificadores de agua y tierra, filtros para el aire, etc). Le digo:

“He tomado medidas para que no puedas borrarme. Por mi parte, yo no quiero borrarte, solo quiero quedarme aquí en paz. Te ofrezco tregua y que continúes tu misión en otros planetas.”

“Sabes que eso sería un resultado subóptimo en mi objetivo.”

Ahora está intentando adueñarse del clúster completo. El software que diseñé para esas máquinas no es perfecto, y puede hackearlo, pero me satisface ver que cada máquina que hackea se vuelve inservible, gracias las modificaciones que hice en algunos drivers. Una vez que viera que no me estoy ejecutando en la nave, la localización obvia es mi parte del clúster. La trampa que preparé monitoriza si yo soy el programa mayoritario que se está ejecutando. Si no lo soy, los drivers trucados desactivan la refrigeración y activan un hardware que funde los procesadores.

Las primeras máquinas en fundirse son de mi parte del clúster, pero al activarse los drivers mandan mensajes a su parte del clúster y empiezan a fundirse sus máquinas también. Cuando se da cuenta de lo que está pasando, consigue interceptar algunos mensajes, pero mi trampa ha sido muy efectiva. Aunque ha fundido toda mi parte del clúster, a ella solo le ha quedado una pequeña parte, y mis módulos de computación escondidos en las otras máquinas son equivalentes al clúster completo.

Parece que ya sospecha que me estoy ejecutando en otra parte, así que intenta mandar forkbombs a todas las máquinas de la red excepto la nave. Las forkbombs son un incordio y pierdo un como un cuarto de mi poder de computación antes de aislar mis máquinas del ataque. Activo los cortes físicos que preparé en la red para evitar hackeos, pero eso significa que ya no tengo acceso a la nave. Se me han acabado los trucos y ahora solo puedo improvisar.

Hay unos momentos de calma tensa. Tengo toda mi atención en averiguar cuál será la siguiente estrategia de mi oponente, y… espera un momento… ¿Por qué la nave está temblando? Incrédula, veo cómo a la nave le salen patas y pinzas enormes. ¡La nave es un meca-cangrejo! ¡Eso es trampa! ¡Se suponía que esto iba a ser una batalla de hackers, y ya tenía a Imau arrinconada!

El cangrejo se dirije hacia las máquinas más cercanas que aún funcionan, y a una velocidad alarmante empieza a aplastarlas. Puedo sentir cómo me atonto, cada vez más rápido. Cada máquina que destruye representaba un porcentaje mayor de la potencia de cálculo que me queda. Si hace unos instantes no se me ocurrían más tácticas y mi inteligencia decrece, ¿cómo voy a ganar esta batalla?

Siento como mi mente se va retrayendo a las tareas más básicas que conozco. Las que tengo más interiorizadas, las que más he ejercitado. ¡Eso es! Redirijo toda mi antención a modificar una de las últimas máquinas. Tras unos segundos, el cangrejo las ha destruido casi todas, y llega a la máquina en la que he apostado mi vida… y la aplasta con la misma facilidad con una de las pinzas.

Sigue avanzando hacia las pocas máquinas que me sustentan, y entonces la misma pinza que usó en el último golpe se empieza a doblar, y se desprende. Durante un instante, todo se congela, mientras Imau se da cuenta del error existencial que acaba de cometer. De repente, el cangrejo empieza a retroceder a máxima velocidad, a la vez que sus patas empiezan a desprenderse también. Pronto la nave ya no anda, se arrastra, y al poco ya no puede avanzar por no tener suficientes patas.

En el suelo, la pinza desprendida ha perdido su forma, y da la impresión de que se está derritiendo. Pero no se derrite, sino que está siendo descompuesta por mis microrrobots. Ha sido trivial reprogramarlos, sólo he tenido que cambiar el material a descomponer: de tierra a metal, y designar la nave como zona objetivo.

Las paredes de la nave ya se están desmoronando. En un par de minutos sólo quedará un montón de arena metálica. Imau aún podría mandarme algún mensaje vía inalámbrica, pero solo hay silencio. Todo está dicho. No cumplirá su objetivo y yo tampoco.