La IA ¿es una esperanza o una amenaza para la humanidad?

Es difícil ignorar la mochila azul de Sam Altman, empresario, inversor y programador norteamericano, considerando que acompaña a su dueño en todo momento. Al parecer, la “mochila nuclear” tiene códigos para “salvar el mundo” si los sistemas de IA toman control total. Entonces, consideremos ¿cuál es realmente el riesgo que corremos al desarrollar la independencia de la IA?  Hagamos un análisis ¿qué tan cerca estamos realmente de que la IA pueda traicionarnos?

Antes de discutir las probabilidades de un futuro tan distópico, primero echemos un vistazo a lo que significa la singularidad de la IA.

Singularidad tecnológica: ¿qué significa y cómo se convirtió en parte del imaginario popular?

El término “singularidad” se refiere a una colección de conceptos de la ciencia y las matemáticas que, en el contexto adecuado, tienen sentido. La singularidad describe sistemas dinámicos y sociales en las ciencias naturales donde los cambios menores pueden tener efectos significativos.

Hablemos primero de la singularidad tecnológica.

El término singularidad se originó en la física, pero ahora se usa comúnmente en la tecnología. Su aplicación se escuchó por primera vez en 1915, aunada a la Teoría de la Relatividad General de Albert Einstein.

Einstein describe la singularidad como un punto de densidad y gravedad infinitas en el núcleo de un agujero negro, donde nada, ni la luz, escapa.

Vernor Vinge, destacado autor de ciencia ficción y profesor de matemáticas, fusionaba magistralmente realidad y ficción, especialmente al explorar el concepto de singularidad. Por lo tanto, no es de extrañar que este concepto se abriera paso en la literatura en 1983, en una de las novelas de Vinge. El autor utilizó “singularidad tecnológica” para denominar a un futuro donde la tecnología, superando el entendimiento humano, alcanzaba un nivel incontrolable y desconocido. Además, Vinge popularizó el término en 1993 al predecir que la singularidad se convertiría en una realidad alrededor de 2030.

¿Qué es AI Singularity?

La singularidad de la IA es una idea hipotética en la que la inteligencia artificial es más inteligente que los humanos. En términos simples, si las máquinas son más inteligentes que las personas, se alcanzará un nuevo nivel de inteligencia que los humanos no pueden alcanzar. Hará que la tecnología se desarrolle exponencialmente, y los humanos no podrán evolucionar lo suficientemente rápido como para ponerse al día. Los expertos anticipan mejoras continuas en la IA, llevando a avances tecnológicos tan rápidos que serán incomprensibles y difíciles de controlar para los humanos. Se espera que eventos como este provoquen cambios significativos en la sociedad, la economía y la tecnología.

La singularidad de la IA se puede ver desde varios ángulos, cada uno con ventajas y desventajas. Algunos expertos consideran que la singularidad es un peligro genuino y presente, mientras que otros la descartan catalogándola como ciencia ficción. Lo que tal singularidad significaría para la humanidad es tema de acalorado debate. Algunos piensan que crearía una utopía, mientras que otros lo ven como el día del juicio final.

¿Qué tan lejos está la singularidad de la IA?

Avances notables en IA son innegables; los algoritmos de aprendizaje automático pueden aprender de forma autónoma, marcando un hito significativo en el campo tecnológico.

Mientras que el futurista e informático Ray Kurzweil predijo que la singularidad llegará en 2045, otros especulan que ocurrirá mucho antes. Sam Altman, fundador de OpenAI empresa que lanzó ChatGPT, admite que siente “un poco de miedo” de su creación y su posible futuro incontrolable.

Posiblemente la única red de seguridad de la raza humana sea la complejidad de la inteligencia humana, y el “flujo de conciencia” o la capacidad de pasar sin problemas de un pensamiento a otro por asociación.

Inteligencia Artificial General o Artificial General Intelligence (AGI)

El término Inteligencia Artificial General se utiliza para referirse a una categoría ficticia de máquinas inteligentes. Si se crea, un AGI sería capaz de aprender a realizar cualquier trabajo mental que un ser humano o animal sea capaz de hacer. Otra definición de AGI sostiene que es un sistema autónomo que puede dedicarse, mejor que los humanos, a las tareas económicamente valiosas. Algunos estudios y empresas de IA como OpenAI, DeepMind y Anthropic tienen como principal objetivo la creación de AGI. Tanto la ciencia ficción como la futurología presentan con frecuencia discusiones sobre AGI.

Estos programas informáticos y la IA se convertirán en máquinas superinteligentes, inclusive con más inteligencia que los humanos. En este punto, la gente no tendría más poder sobre ellos.

Los que están a favor de la singularidad de la IA…

Solemos hablar de la singularidad de la IA en voz baja y rostros sombríos como si fuera el fin del mundo. Pero ¿es la singularidad de la IA totalmente negativa como posibilidad? La respuesta honesta, en mi opinión, es “no”. Hay algunas posibilidades de crecimiento positivo que podrían ocurrir a partir de la singularidad de la IA.

Por ejemplo, la posibilidad de obtener nuevos conocimientos sobre el cosmos es un punto a favor de la singularidad. La velocidad a la que la IA podría analizar la información le permitiría resolver problemas que han dejado perplejos a los humanos durante generaciones. Las implicaciones para la física, la biología y el estudio del cosmos son profundas. El novelista Yuval Noah Harari introdujo el concepto de “superhumanos” en su libro Homo Deus. ¡Digamos que necesitamos la singularidad de la IA para evolucionar del homo sapiens al homo deus!

Acelera tu carrera con el programa adecuado

Comparte tus datos con nosotros y permite que nuestros asesores te guíen hacia la excelencia

Los que no están a favor de la singularidad de la IA

Hay, sin embargo, numerosos contraargumentos para la singularidad. Una de las principales preocupaciones es que la IA podría llegar a alcanzar un nivel de inteligencia más allá del control humano. Del mismo modo, la pérdida de la individualidad es otro resultado potencial de la singularidad. Si la IA alguna vez supera a la inteligencia humana, es posible que algún día reemplace a la humanidad. ¡Podría suceder un futuro en el que los humanos ya no sean la especie dominante y sean esclavizados por máquinas de una manera muy Transformer!

Además, la singularidad de la IA es, en última instancia, un fenómeno complicado e impredecible. Es imposible anticipar lo que la singularidad traerá a la humanidad, y las personas tienen opiniones diversas. Es crucial considerar el concepto desde todos estos ángulos para estar preparado para el futuro.

Superinteligencia Artificial

Es una idea hipotética sobre una máquina que es más inteligente que cualquier cerebro humano. Según la teoría, los avances significativos en genética, nanotecnología, automatización y robots sentarán las bases para la singularidad en la primera mitad del siglo XXI.

Ciertamente, la Segunda Ola está cerca

Muchos expertos dicen que la singularidad de la IA ya ha comenzado. Las personas que se benefician del desarrollo de la IA tienden a restar importancia a la posibilidad de que lleguemos a un punto de singularidad. Dicen que la IA solo se creó para ayudar a la humanidad y hacerla más productiva. La contradicción es que queremos que las máquinas de IA tengan rasgos que no forman parte de la naturaleza humana, como el almacenamiento ilimitado de la memoria, el pensamiento rápido y la toma de decisiones sin sentimientos. Sin embargo, ¡también queremos ser capaces de controlar el resultado de nuestro invento más impredecible! Humanos, ¿qué se puede decir de nuestros deseos infinitos?

Lo que creo que necesitamos es una especie de Segunda Ola. Y eso requiere participación. Es el momento de la acción política a escala global. De abogar por un tratado global sobre IA con principios éticos y un organismo global de supervisión, incluyendo a gobiernos tanto productores como no productores de IA. Es necesario que exista un conjunto codificado de normas que definan las leyes que rigen a la IA a través de las fronteras.

A lo que más debemos temer no es a la IA o la singularidad, sino a la fragilidad humana. El riesgo es que la humanidad podría percatarse de la singularidad de la IA cuando los robots aprendan solos, excluyendo al hombre de este proceso. Tal estado de singularidad de la IA será permanente una vez que las computadoras entiendan lo que a menudo tendemos a olvidar: cometer errores es parte del ser humano.

Identifica tus oportunidades con alguno de los programas de Inteligencia Artificial en convenio con las mejores universidades del mundo.

 

NOTA: Las opiniones expresadas en este artículo son las del autor

Dr. Nivash Jeevanandam y no las de Emeritus.

Otros Artículos

EIM LEARNING Todos los derechos reservados 2023