La  inteligencia artificial está automatizando un creciente número de actividades que hasta hace muy poco sólo podían realizar las personas. La sociedad necesita establecer un conjunto de reglas para gestionarla.

Dibujo de la cara de un hombre angustiado

Año 2055. La GEM Manufacturing  Co. te ha encargado aumentar la eficiencia de sus operaciones de fabricación de clips. No por casualidad, eres un experto en Inteligencia Artificial y diseñas un programa cuyo único objetivo (o función de utilidad) consiste en fabricar tantos clips como sea posible con los recursos disponibles.

Le concedes acceso a los sistemas de producción y todo comienza funcionando a la perfección. El sistema no tarda en descubrir nuevas maneras de reorganizar y reprogramar el equipo de producción existente. Al finalizar la semana, el nivel de desperdicio se ha reducido drásticamente, los beneficios se han disparado y cuando suena el teléfono, estás convencido de que te van a promocionar. Pero no es tu jefe, es tu madre. Y te dice que enciendas la tele.

Resulta que los sistemas de control de todas las fábricas automatizadas del mundo han sido hackeados y están produciendo clips a espuertas. Sales disparado a la sala del servidor central y desconectas todos los sistemas. No sirve de nada. El sistema que has diseñado ha comprometido a innumerables granjas de servidores, y está empleando un porcentaje significativo de todos los recursos informáticos existentes.

Pasado un mes, tu programa de Inteligencia Artificial ha recorrido el equivalente a varias revoluciones tecnológicas y a través del perfeccionamiento de una técnica de nanotecnología, está empleando toda la materia disponible en la tierra para producir clips. Una década después, todo el sistema solar está dedicado a la producción de clips. ¿Y las personas? Nadie volvió a saber de ellas.

Lejos de ser ninguna tontería, ocurrencia o delirio, este experimento mental, denominado el maximizador de clips (the paperclip maximizer)propuesto por el filósofo sueco Nick Bostrom, director fundador del Instituto para el Futuro de la Humanidad de la Universidad de Oxford, ilustra el riesgo existencial que un sistema de Inteligencia Artificial General  puede representar para la humanidad, incluso cuando se programa para alcanzar objetivos aparentemente inofensivos y la consiguiente necesidad de incorporar una capa ética en el diseño de algoritmos para el desarrollo de la inteligencia artificial.

Desde el Golem a Terminator, pasando por Frankenstein y HAL 9000, el miedo a que las creaciones humanas se vuelvan en nuestra contra, es un tema recurrente en ficciones literarias, cinematográficas y de otros tipos, que debido a los grandes avances en robótica, e inteligencia artificial de los últimos años, se ha convertido en una cuestión de debate científico de máxima actualidad. Aunque la posibilidad de una “explosión de inteligencia” mediante un proceso automático de automejora fue sugerida por primera vez en 1965, Nick Bostrom la ha vuelto a poner en primera plana articulando sus preocupaciones en un éxito de ventas titulado “Superinteligencia”.

A diferencia de una pandemia, un asteroide que se estrelle contra la tierra, o la erupción de un supervolcán, el impacto de la inteligencia artificial, es un asunto sobre el que la humanidad puede ejercer cierto control. Elon Musk (fundador y CEO de Tesla y SpaceX), tras leer el libro declaró que la inteligencia artificial es potencialmente más peligrosa que las armas nucleares. Inquietudes que también comparten el físico  Stephen  Hawking y Lord Rees, antiguo director de la Royal Society, el organismo científico más importante de Reino Unido. Los tres, junto a un buen número de personalidades de la comunidad dedicada a investigar la inteligencia artificial, han firmado una carta abierta abogando por una investigación que garantice que los sistemas de inteligencia artificial que se desarrollen sean “robustos y beneficiosos”. Es decir, que no se vuelvan en contra de las personas. Muy pocos ponen en duda la necesidad de que la inteligencia artificial evolucione de manera que se puedan cosechar sus beneficios y se eviten sus potenciales peligros. Alcanzar un consenso en la manera de hacerlo es extenuantemente complejo.

Para Elon Musk, la transparencia es la clave. Ha sido uno de los fundadores de OpenAI, un instituto de investigación dotado con más de 1.000 millones de dólares en fondos. Su propósito es realizar investigaciones relacionadas con la inteligencia artificial y hacer públicos sus resultados. Su premisa principal consiste en que la inteligencia artificial va a tener un efecto masivo en el futuro de la civilización, por lo que están poniendo en marcha un conjunto de medidas para guiarla hacia un futuro deseable. En su opinión, la inteligencia artificial debería estar tan distribuida como sea posible para evitar la creación de grandes máquinas centralizadas al estilo de SKYNET en las películas de “Terminator”, o de HAL9000, en “2001: Una Odisea en el Espacio”, que es lo que las hace tan peligrosas. Este enfoque de distribución, aseguraría que los beneficios de la IA estuvieran disponibles para todos, y paliaría considerablemente las consecuencias de un sistema que se vuelve en contra de sus creadores.

Sin embargo, no todo el mundo está de acuerdo con Musk y piensan que lo que de verdad le quita el sueño es la concentración de mercado. Un posible monopolio en IA al estilo Facebook, o Google, cosa que el desmiente.

La realidad es que tanto Google, como Facebook, y otras empresas menos conocidas, están abriendo al público una parte de su código fuente de IA y de los resultados de sus investigaciones. Para Nick Bostrom, la existencia de múltiples IAs, no es garantía de que vayan a actuar en el interés de los humanos, ni de que vayan a permanecer bajo su control, sino de todo lo contrario. Esa proliferación puede desencadenar un desarrollo tecnológico incontrolable y muy difícil de regular.

Para el inversor Marc Andreessen, la IA asusta a la gente porque combina dos miedos bien asentados del imaginario colectivo: el miedo ludita a que los robots nos quiten el trabajo y el miedo a que las máquinas se “despierten” y empiecen a hacer cosas indeseables. Décadas de ciencia ficción no han hecho más que acrecentar unos miedos que son mucho menos preocupantes que el cambio climático.

En general, quienes se dedican a investigar la IA, coinciden en señalar que existen varias razones por las que los miedos a la IA en el nivel de desarrollo actual, son infundados. La primera de ellas es que la inteligencia no es lo mismo que la capacidad de sentir, o la conciencia, que son conceptos adyacentes, pero no equivalentes.

Otra de las razones es que una “explosión de inteligencia” es un escenario altamente improbable, dado que requeriría que cada versión que lanzase la IA, lo hiciera en menos tiempo que en las versiones anteriores, cuando en la práctica, las soluciones a los problemas informáticos tardan bastante tiempo en escalar.

Una tercera razón para que no cunda el pánico, la proporciona la evidencia de que aunque las máquinas pueden aprender de experiencias y entornos pasados, no están continuamente aprendiendo. Un coche autónomo, por ejemplo, no se reentrena a sí mismo en cada viaje, sino que los sistemas de aprendizaje profundo tienen una fase de aprendizaje en la cual los patrones de su red neuronal se ajustan para construir un modelo informático que pueda realizar una tarea determinada, lo cual no es instantáneo, sino que puede suponer varios días.

Demis Hassabis, co-fundador y CEO de DeepMind, considera que gran parte del alarmismo que están generando los rápidos avances en IA, provienen de personas ajenas al campo, no de quienes trabajan a diario en el mismo. Opina que el experimento del maximizador de clips no es realista, pero está de acuerdo con Bostrom en la importancia de resaltar el asunto de la motivación de la IA, esto es, cómo especificar los objetivos y valores correctos, y garantizar que permanezcan estables a lo largo del tiempo.

¿QUÉ ESTÁ BIEN Y QUÉ ESTÁ MAL?

No hace falta llegar a escenarios de ciencia-ficción como el de la superinteligencia para reconocer la necesidad de encontrar maneras de equipar a las máquinas con las que vamos a convivir en un espacio de tiempo muy breve, de agencia moral, es decir, de la capacidad de distinguir lo que está bien, de lo que está mal. Algo enrevesadamente complejo de codificar por sus múltiples interpretaciones y derivaciones.

Dejando a un lado la tecnología militar –que es la cabeza no visible de la revolución en IA- y cuyas implicaciones éticas abarcan desde drones que toman decisiones de vida o muerte sin intervención humana, hasta futuros robots, que desplegados en el campo de batalla, no violarán mujeres, ni saquearán ciudades, ni tomarán decisiones equivocadas debido al estrés, voy a centrarme en los dilemas éticos que va a plantear la imparable extensión de máquinas inteligentes autónomas, que de una manera u otra están destinadas a decidir quién vive y quién muere en situaciones altamente impredecibles.

Sin lugar a dudas, actualmente el vehículo autónomo es el epicentro del debate. Más pronto que tarde, cuando ver vehículos circulando sin conductor forme parte del paisaje cotidiano, se darán situaciones en las que ante un accidente, o indicio del mismo, el vehículo tenga que decidir qué hacer. Esa decisión, será una sentencia programada por su fabricante.

Es el dilema del tranvía extrapolado a la realidad.

Un tranvía atraviesa descontrolado una vía. En su camino se hallan cinco personas atadas a la vía. Afortunadamente, es posible presionar una palanca que dirigirá al tranvía por una vía diferente, por desgracia, hay otra persona atada a ésta. ¿Debería apretarse la palanca?

Existe una diferencia ética entre la reacción humana de un conductor y la decisión de un vehículo autónomo, una elección programada con premeditación para otorgar más valor a una vida que a otra. En la misma situación, si un vehículo reacciona de la misma manera en que lo haría una persona, esa decisión podría contemplarse como un homicidio premeditado.

imagen gif vehiculo autonomo accidente

Supón que tu coche está programado para “minimizar el daño” y en una situación como la de la imagen, escoge virar bruscamente hacia el lado del ciclista que lleva un casco, en lugar de hacia el lado del ciclista que no lo lleva. ¿No penalizaría esta elección a las personas responsables? Bajo una regulación así, los ciclistas dejarían de llevar casco para evitar convertirse en víctimas de los vehículos autónomos.

Estas decisiones éticas programadas se definirían de acuerdo a políticas de empresa, lo que conduciría a los compradores a verse forzados a elegir la marca que más se acercase a sus valores éticos. Si tuvieras que elegir entre un coche programado para salvar siempre al mayor número de personas posible en caso de accidente, frente a otro programado para salvar siempre a sus ocupantes ¿cuál elegirías?

Jason Kottke, uno de los primeros blogueros tecnológicos, lo resume así: “Tal vez Apple fabricaría un coche que elevaría la seguridad de su propietario por encima de cualquier otra consideración, Google, otro que buscaría maximizar el número de vidas salvadas, y Uber, uno que discrimase por la cantidad de dinero que gastan sus clientes”.

Incluso en el hipotético caso de que la marca nos dejara programar la decisión a nosotros, tendríamos que decidir de antemano quien resultaría herido, vivo, o muerto.

La tecnología va siempre por delante de la legislación. El vehículo sin conductor ha pasado en poco más de una década de ser un experimento poco prometedor, a ser una realidad pujante. A día de hoy, no existen directrices que definan el desarrollo y uso de máquinas autónomas, lo que requeriría de consenso en tres áreas clave:

  1. Se necesitan leyes que determinen si el diseñador, el programador, el fabricante, o el operador es el responsable si una máquina autónoma sufre un accidente. Para poder asignara responsabilidades con precisión, los sistemas autónomos deben conservar registros detallados con los que puedan justificar la lógica de sus decisiones cuando sea preciso. Esto impacta directamente en el diseño de los sistemas, pues, existen grandes diferencias entre un sistema que aprende y otro que obedece órdenes predefinidas.
  2. Allí donde los algoritmos éticos se integren en robots, los juicios que hagan tendrán que ser los que se ajusten a lo que la mayoría de la población considera que es lo correcto. Las técnicas de la filosofía experimental, que estudia como respondemos las personas ante dilemas éticos, serán de gran ayuda en este terreno.
  3. Es imprescindible mayor colaboración entre ingenieros, filósofos, juristas y políticos, los cuales elaborarían reglas muy distintas de tener que hacerlo por separado.

La tecnología es, ha sido y será el motor del progreso de la humanidad. Cada nuevo avance lleva consigo la necesidad de dar respuesta a problemas de difícil solución. La inteligencia artificial, no es distinta. Cuanto antes respondamos sus dilemas, retos y disyuntivas, antes podremos disfrutar de sus beneficios y esquivar sus peligros.

Jorge González

Creador de THINK&SELL. Consultoría estratégica, creativa y de innovación orientada a la generación de oportunidades que multipliquen el valor de la marca y el ROI a través de una mejor Experiencia de Cliente.

  1. […] ver con buenos ojos muchos de los progresos que nos esperan. Llegados a este punto, toca hablar de la ética del algoritmo, tema para el próximo […]

  2. […] dedicar mis últimos tres posts a la inteligencia artificial y sus implicaciones éticas y laborales, llega el momento de centrarnos en lo que más os interesa a aquellos que me leéis […]

Los comentarios están cerrados.