Artículo de portada

El futuro de la IA según este científico loco

por Lisa Wirthman

La invención de los investigadores en los años cincuenta, la inteligencia artificial (IA), ha llegado a su fase de madurez. ¿Cómo podemos dirigir de forma responsable la próxima etapa de esta inteligencia?

Tiempo de lectura: 08 min.

LEA ESTE ARTÍCULO


Hace veinte años, la computadora Deep Blue de IBM impresionó al mundo entero al vencer al gran maestro mundial del ajedrez Garry Kasparov, que experimentó de primera mano el comienzo de la competencia entre humanos y máquinas. Con una altura de 1,98 metros y un peso cercano a las 4 toneladas, Deep Blue era un competidor formidable. Sin embargo, lo que era extraordinario para el público general no era el tamaño de Deep Blue, sino la inteligencia de la máquina. Las revistas de todo el mundo se preguntaban: ¿es esta la última batalla del cerebro?

Hoy, el “loco” Max Tegmark, un físico del Instituto Tecnológico de Massachusetts, famoso por sus ideas poco convencionales, no está convencido de que los robots vayan a dominar a los humanos… por lo menos aún no.

“La IA supera a cualquier humano en tareas concretas como la aritmética, pero ni siquiera puede hacer las cosas que hace cualquier niño sano: aprender a ser bueno en algo con suficiente esfuerzo”, explica Max.

Aun así, Tegmark nos anima a todos a empezar a pensar en un futuro en el que las máquinas superinteligentes puedan superarnos en todo tipo de tareas concretas. La invención de los especialistas en computación de la década de los cincuenta, la inteligencia artificial (IA), está atravesando una etapa de crecimiento masivo y reinventando nuestras formas de pensar, vivir y trabajar. También está alimentando la preocupación generalizada de que las máquinas quitarán el trabajo a los seres humanos o, lo que es peor, de que se convertirán en una superespecie de robots.

Tegmark es cofundador y presidente del Future of Life Institute, autor del libro Life 3.0: Being Human in the Age of Artificial Intelligence (Vida 3.0: Qué significa ser humano en la era de la inteligencia artificial) y de más de 200 artículos técnicos, por lo que es una autoridad en todo lo relacionado con la IA. Para él, la pregunta sigue siendo la misma: “¿Será la IA algún día más inteligente que sus progenitores?”.

Una mente propia

Actualmente, la IA, la capacidad de una máquina de imitar el comportamiento humano inteligente, permite a los ordenadores realizar una amplia gama de tareas.

La IA permite a las personas hacer un seguimiento de sus horas de sueño y mejorar su calidad, programar reuniones de negocios y comprar calcetines nuevos a través de un asistente de voz. Para las empresas, la IA toma decisiones sobre transacciones bursátiles, ordena el inventario y redefine el proceso de contratación (ya no hay que seleccionar los currículos en papel). La IA también está avanzando en los campos de la ciencia y la salud, incluido el descubrimiento de nuevos planetas y el diagnóstico de enfermedades oculares.

En 2018, lo que se conoce como IA estrecha se diseña para realizar tareas específicas que se le asignan, como manejar un automóvil de forma automática o facilitar contenido más relevante a un medio de comunicación social, pero ya está comenzando a hacer mucho más. Avances como el aprendizaje profundo (un subgrupo de la IA que utiliza el procesamiento de datos y el reconocimiento de patrones para tomar decisiones espontáneas) nos permiten vislumbrar el futuro de la IA.

El paso que sigue al aprendizaje profundo es un concepto llamado “inteligencia general artificial” (IGA), en el que las máquinas pueden sentir, razonar y aprender una amplia gama de tareas por sí solas. Con la IGA, las computadoras no solo hacen lo que se les pide, sino que se vuelven flexibles y se asignan a sí mismas nuevas tareas basadas en el aprendizaje aplicado. (Si usted puede atarse los zapatos, por ejemplo, la inteligencia general dice que usted será capaz de atar otros tipos de nudos, como en un barco o para envolver un regalo).

Según Tegmark, las máquinas están lejos de dar este salto y pensar por sí mismas. Hasta que la inteligencia artificial aprenda funciones cognitivas, como el aprendizaje adaptativo, Tegmark señala que la tecnología actual tiene más posibilidades de manipular que de aniquilar.

“En lugar de tener miedo a los robots asesinos que tratan de matarnos –escribe el historiador Yuval Noah Harari en una crítica al libro de Tegmark–, [Tegmark shows us] deberíamos estar más preocupados por hordas de robots que saben cómo apretar nuestros botones emocionales mejor que nuestra propia madre…”.

Además de manipular nuestros sentimientos, esta IA avanzada puede utilizarse para redirigir nuestros hábitos de consumo, modificar las noticias que leemos e incluso influir sobre nuestras ideas filosóficas y políticas. Sin embargo, para que la IA llegue a su adolescencia, prosigue Tegmark, primero tendrá que confiar en sus capacidades neuronales de aprendizaje profundo para desarrollar una mente propia.

 

“Todo lo que amo de la civilización es producto de la inteligencia. Si podemos ampliar nuestra inteligencia humana con la IA y resolver los mayores problemas del mundo actual, la humanidad podría prosperar como nuca antes”.

El “loco” Max Tegmark

Vida 3.0

Puede ser que el apodo el “loco” de Max Tegmark se derive de su creencia en que la inteligencia no se limita a los organismos biológicos.

“Defino la inteligencia de manera muy inclusiva, simplemente como la capacidad de lograr objetivos complejos, porque quiero incluir tanto a la inteligencia biológica como a la artificial”, dice Tegmark. “Quiero evitar esta idea chovinista sobre el carbono de que solo se puede ser inteligente si uno está hecho de carne y hueso”.

En su libro, Tegmark esquematiza tres evoluciones de la inteligencia. Si la Vida 1.0 es una forma biológica básica (como las bacterias) que está preprogramada, entonces la Vida 2.0 es un ser humano cuyo hardware físico tarda años en evolucionar, pero cuya inteligencia se reprograma constantemente a través del aprendizaje.

Desde la imprenta hasta Internet, pasando por la evolución de la medicina y el ocio, la Vida 2.0 ha demostrado su capacidad de adaptación a lo largo de su existencia. Al mismo tiempo, la lenta evolución biológica de los humanos, nuestro hardware, limita fundamentalmente nuestro crecimiento. Nadie puede vivir un millón de años, memorizar toda la Wikipedia ni disfrutar de un viaje por el espacio sin una nave espacial.

La etapa más sofisticada de la inteligencia, dice Tegmark, es la Vida 3.0, que no solo puede diseñar su propio software a través del aprendizaje, sino también actualizar su hardware. “Implantar rodillas y marcapasos artificiales puede clasificar a los humanos como Vida 2.1, pero no podemos cambiar drásticamente nuestro ADN”, dice Tegmark. Sin las limitaciones de un cuerpo biológico y, por tanto, de un período de vida, el siguiente nivel de vida, en teoría, será capaz de aprender de forma continua y adaptarse físicamente.

“La Vida 3.0 es dueña de su propio destino, finalmente libre de los grilletes que impiden su evolución”, escribe Tegmark.

Muchos investigadores de la IA consideran que la Vida 3.0 llegará en este siglo, por lo que Tegmark cree que es fundamental que los innovadores consideren su papel en esta transición. “Soy optimista, creo que podemos construir un futuro inspirador con la IA, pero no va a suceder automáticamente, por eso debemos planificar y trabajar para conseguirlo”, dice Tegmark. “Si lo hacemos bien, la IA se puede convertir en lo mejor que le haya pasado nunca a la humanidad”.

Para Tegmark, hacer las cosas bien con la IA significa crear la sabiduría necesaria para administrar una tecnología en evolución. En lugar de alarmarse, Tegmark recomienda entender los posibles dilemas tecnológicos.

Un ejemplo: supongamos que un avión civil grande pueda programarse para no volar hacia objetos estacionarios y mantener así a los pasajeros seguros. ¿Pero qué pasa si se programa para hacer algo devastador? ¿Y si un día las máquinas superinteligentes reinterpretan nuestros objetivos? Por ejemplo, ¿qué pasa si un controlador de IA decide que la mejor manera de evitar chocar contra un objeto estacionario es destruir el avión por completo?

Por ese motivo, Tegmark y otros líderes de la IA hacen hincapié en el papel de la ética, enseñar a las máquinas a adoptar metas que beneficien a la humanidad.

“Ahora que nuestras máquinas se están volviendo más inteligentes, es el momento de mostrarles los límites”, afirma Tegmark. Cualquier ingeniero que diseñe una máquina necesita preguntarse si hay cosas que puede pero no debe hacer, y pensar si hay alguna manera práctica de hacer imposible que un usuario malicioso o torpe cause daños”.

Hay un posible punto de no retorno en la infancia de la IA, sostiene Tegmark, por eso debemos enseñar a las máquinas cómo aprender, adoptar y conservar nuestros objetivos antes de que nos superen como adolescentes rebeldes. “Una IA superinteligente será excelente para cumplir sus objetivos y si esos objetivos no coinciden con los nuestros tendremos un problema”.

Aunque es imposible determinar cómo las diferentes compañías y países elaborarán sus propios principios éticos, lo que es fundamental para Tegmark es intentarlo.

“Tampoco sabemos si nuestros hijos compartirán nuestros mismos objetivos si llegan a ser más inteligentes que nosotros cuando crezcan”, añade. Esto no quiere decir que no debamos ser padres responsables y hacer todo lo posible por inculcarles nuestros mejores valores”.

Crear un futuro ético

Por ahora, uno de los mayores desafíos de la IA es que la tecnología se desarrolla más rápidamente que la investigación y la regulación sobre su seguridad. Por eso, Tegmark cree que es mejor concentrar nuestra energía en ponernos al día con la innovación, en vez de detenernos.

“Es mucho más fácil ganar la carrera si aceleramos la investigación sobre la seguridad de la IA, algo a lo que hoy dedican muchos menos recursos y atención”.

Future of Life Institute está desempeñando su papel para contribuir a esta investigación y llegar a un consenso. La organización de Tegmark patrocinó dos conferencias, una en 2015 y otra en 2017, para reunir a líderes académicos y del sector, como Elon Musk y Larry Page, y analizar la seguridad de la IA. En la conferencia de 2017, más de mil investigadores de IA de todo el mundo firmaron el documento Asilomar AI Principles (Principios de la IA de Asilomar). El acuerdo ofrece 23 principios rectores para la IA, incluida la necesidad de incorporar normas de seguridad en la IA que se ajusten a los valores humanos.

Y, aunque Tegmark esté plenamente convencido de que los robots serán algún día más inteligentes que los seres humanos, se centra más en lo que los robots harán que en lo que sentirán. Tegmark sostiene que las preocupaciones sobre si los robots tienen conciencia (al estilo de Westworld) son irrelevantes cuando se analizan los riesgos de la IA. Es de vital importancia recordar que no se necesita conciencia para tener un objetivo. (Un misil de búsqueda de calor tiene una misión y es un riesgo para la seguridad, pero no tiene conciencia).

Por supuesto, el tratamiento de los futuros robots sensibles es algo que los filósofos y las organizaciones de derechos humanos han debatido, y lo seguirán haciendo. Nonhuman Rights Project (Proyecto sobre derechos no humanos), una organización sin fines de lucro ubicada en Florida, que protege a chimpancés, gorilas y orangutanes, considera que los mismos principios se deberían aplicar a los robots.

Steven Wise, del equipo legal de la organización, hizo las siguientes declaraciones a NBC News: “Debemos tener las mismas responsabilidades morales y legales hacia [robots] que las que se están elaborando para los animales no humanos”.

No obstante, Tegmark aconseja no dejar todas las decisiones a los investigadores de la IA, a las organizaciones sin fines de lucro o a los filósofos: tenemos que empezar a hablar colectivamente sobre nuestros propios objetivos para el futuro de la IA con nuestros familiares, amigos, colegas y representantes políticos. Entre las consideraciones de política importantes para la IA figuran la financiación de las investigaciones sobre la seguridad de la IA, la negociación de un tratado internacional para condenar las armas mortales de IA y analizar cómo se podría repartir equitativamente la riqueza generada por los avances de la IA.

Tegmark mantiene que al suscitarse un debate general sobre el futuro de la IA, todos podemos utilizar nuestra inteligencia humana colectiva, cognitiva y emocional para crear un futuro beneficioso para la IA.

“Todo lo que amo de la civilización es producto de la inteligencia. Si podemos ampliar nuestra inteligencia humana con la IA y resolver los mayores problemas del mundo actual, la humanidad podría prosperar como nunca antes”.