21 de febrero de 2021

Jef Benefit / TELOS

María Marín, The Conversation

Pensar que no puede existir nada ni nadie más inteligente que el ser humano es un tremendo error. Así se expresa Max Tegmark, físico y cosmólogo sueco, en el Foro Telos 2020. Durante el encuentro, Tegmark señala que hasta ahora vivimos en una especie de “chovinismo de carbono”. Y la inteligencia consiste en procesar información, donde poco importa que la procesen los átomos de carbono en las neuronas del cerebro o los átomos de silicio de los ordenadores.

El cosmólogo, profesor en el Instituto Tecnológico de Massachusetts (MIT), estima que la llegada de una inteligencia artificial (IA) general que supere a la humana es cuestión de décadas.

II Congreso Iberoamericano de Docentes. Docentes frente a la pandemia

Para él, la pregunta clave es si debemos estar emocionados o aterrados, porque, haciendo una analogía, “podemos coger un cuchillo para hacer una deliciosa paella o para matar a alguien”. No se trata de si la IA es buena o mala, sino cómo la empleemos: “Podemos utilizarla para curar enfermedades, acabar con la pobreza o el cambio climático. Pero también para extinguir la humanidad si cometemos errores estúpidos”.

El grado de preparación marca la diferencia

Ante futuras pandemias como la actual de covid-19, Tegmark indica que lo importante es estar preparados. “Así no tendremos nada que temer porque podremos asegurarnos de que no sucederá lo que ha sucedido y, en caso de que lo haga, estaremos preparados para resolverlo”.

“Corea del Sur estaba preparada para la pandemia. España no tanto. Y esa es la razón por la que el número de muertes es mucho mayor aquí. El grado de preparación marca la diferencia”.

FORO TELOS 2020. Conversación con el físico y cosmólogo Max Tegmark y la periodista, y también escritora, Marta García Aller, sobre los desafíos y oportunidades de la inteligencia artificial, iluminando sus numerosas facetas de una manera accesible.

Un plan que se anticipe al futuro

Al calibrar los riesgos para la humanidad que podría traer la inteligencia artificial, Tegmark la compara con la llegada de las armas nucleares. Y aboga por un consenso entre todos los países en el que se entienda su peligrosidad y cómo proceder: “Es fantástico que la Unión Europea esté desarrollando un reglamento general de protección de datos para la IA con nuevas normas”, dice con entusiasmo.

El profesor del MIT señala que convertir la inteligencia artificial en el arma más potente a nuestro alcance no tiene que ser algo negativo, como sí ocurre con las armas nucleares: “Pero para conseguir que un futuro mejor sea una realidad debe existir una visión optimista común que podamos respaldar”.

Aunque empresas como Google o Facebook pidan que no se regule la IA, el físico europeo advierte de que dejar en manos de unos pocos la IA sería un error terrible:

“Nuestra estrategia hasta ahora ha consistido en aprender de los errores. Pero con una tecnología más potente, como las armas nucleares o la IA, aprender de los errores es una idea terrible. Es mucho mejor ser proactivo y elaborar un plan de antemano para evitar que todo pueda salir mal”.

Jef Benefit / TELOS

¿Quién estará al mando?

El profesor del MIT expone que actualmente las investigaciones se dirigen hacia una inteligencia artificial general que llegue a ser igual de buena que el ser humano en cualquier aspecto.

“Pero si llegamos a este punto habremos alcanzado lo mejor de lo peor que jamás ha sucedido en la humanidad. Porque evidentemente no te van a pagar por hacer tu trabajo si hay una máquina que lo hace más barato”.

Por eso, hay que considerar que si todas estas máquinas fueran propiedad de una sola persona, todos acabaríamos muriendo de hambre. Las consecuencias dependerán de en qué manos caigan estas herramientas. Y, a juicio de Tegmark, lamentablemente vamos por el camino incorrecto, pues las desigualdades sociales son cada vez mayores.

¿Cuándo podremos confiar en estas máquinas?

El autor del libro ‘Vida 3.0’, en el que se plantean los desafíos y oportunidades que se esperan de la IA, recuerda que no se nos debe exigir que confiemos completamente en ella, pues en la historia de las tecnologías se han cometido muchos errores. “La solución no es crear propaganda psicológica y decirle a la gente que confíe en la IA, sino trabajar de manera incesante en estudiar su seguridad y entender bien cómo funcionan”.

De lo único que estoy seguro es de que será lo mejor o lo peor que haya sucedido nunca. Si la tecnología va a avanzar, también debemos asegurarnos de que crezcan los conocimientos con los que vamos a manejar esa tecnología de forma adecuada. Los conocimientos deben ser lo primero".


La versión original de este artículo fue publicada en la Revista Telos, de Fundación Telefónica.The Conversationhttp://theconversation.com/es/republishing-guidelines —>


María Marín, Salud y Medicina, The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.