Articles

Por qué se producirá la singularidad, pero no en 2045

La singularidad técnica, acuñada por Vernor Vinge y posteriormente popularizada por Ray Kurzweil, es algo que realmente suscita fuertes opiniones. Un ejemplo fue hace algún tiempo, este artículo estaba en la portada de Version2 (gran sitio danés de medios de comunicación de TI) – el titular en inglés: «Autor: La singularidad es una mala ciencia ficción sin ciencia». He visto muchos de estos artículos a lo largo de los años.

Lo que es bastante interesante es que la gente parece beber el Kool-Aid O ser detractores creyendo que la singularidad nunca sucederá. O la gente parece creer que viviremos para siempre o que todo seguirá simplemente igual. Este enfoque polarizador me molesta muchísimo:
Realmente creo que la gente que oye hablar de «la singularidad» a menudo se equivoca.

Equivocarse, sin embargo, es fácil.

Durante la última década, la Universidad de la Singularidad, fundada por Peter Diamandis y Ray Kurzweil, ha popularizado la Singularidad con un marketing espeso y precios de entrada muy caros. Marketing espeso combinado con promesas de ser subido a la nube y vivir para siempre.

Sin embargo, a pesar del marketing espeso, no estoy de acuerdo en que la Singularidad sea «mala ciencia ficción sin ciencia»: creo que es el futuro al que nos dirigimos. Rápido. Sólo creo que Peter Diamandis y Ray Kurzweil se llevarán una gran decepción si esperan vivir para siempre.

¿Qué es la singularidad?

He visto tantas interpretaciones diferentes de lo que es «la singularidad»: desde «IA superinteligente» hasta «cuando podamos vivir para siempre». Ni siquiera tener el punto de referencia correcto es un problema: sencillamente, no se puede discutir sobre si algo ocurrirá o no si ni siquiera se conoce el punto de referencia.

El término «singularidad» se utiliza en física como algo que no podemos ver más allá. En la «singularidad técnica» es lo mismo. Es un punto en el futuro, donde la tecnología se desarrolla tan rápido, que los resultados serán insondables.

Toma a los humanos hace unos 70.000 años, justo alrededor de la revolución cognitiva. Si se tomara una máquina del tiempo y se pusiera a un humano al azar de esa época, se pulsara el botón de «actualizar el tiempo» y se le mostrara nuestro presente… Nuestro pobre humano vería el mundo actual como algo insondable. No sabría qué es lo que está pasando: los coches, Internet y los aviones. Creo que es justo decir que 2020 es insondable desde la perspectiva de alguien de hace 70.000 años… El argumento es que la Singularidad, es algo así desde nuestra perspectiva.

La idea de la singularidad fue muy popularizada por Ray Kurzweil. Ray Kurzweil es el autor de múltiples libros, pero «La Singularidad está cerca» escrito en 2005, es el más popular. Posteriormente cofundó la Singularity University con Peter Diamandis que ha popularizado aún más el término a escala mundial.

Ray Kurzweil sostiene que la singularidad se producirá en 2045. El razonamiento es que la computación no está mejorando linealmente, sino exponencialmente. Haciendo una previsión de la evolución, sostiene que en 2029 la inteligencia artificial será tan inteligente como el ser humano, y que a partir de ahí mejorará hasta que la velocidad haya mejorado tanto que lleguemos a la singularidad en 2045.

¿Podría ocurrir la singularidad?

Ahora, volviendo al presente en 2020: ¿parece realista?

Seamos sinceros. Hablando con Siri no parece probable que en apenas 10 años no se pueda diferenciar a un humano de su asistente en el teléfono. Joder, incluso hoy le he preguntado a Siri en mis AirPods «¿va a llover hoy?», y me responde: «Esto es lo que he encontrado en ‘Los Beatles’…

Las cosas SÍ parecen moverse más rápido. Pero, ¿la inteligencia artificial llegando a niveles similares a los humanos en 10 años? O que la tecnología mejore tanto que no podamos concebir el mundo en apenas 25 años (2045 frente a 2020)?

Está claro que tiene que pasar algo muy bastante drástico… Cualquier intuición natural nos dice claramente que eso es irreal.

Por qué la IA (inteligencia artificial) sigue saliendo a relucir

En el resto del artículo, voy a seguir repitiendo IA como si fuera lo mismo que la Singularidad. Obviamente, no lo son. Sin embargo, la IA es una parte importante para alcanzar la Singularidad.

La Singularidad supone que la velocidad de todo aumentará más rápido, y más rápido, y más rápido y más rápido – hasta que llegue a ser tan rápido que sea demasiado rápido para entenderlo. Eso nunca sucederá con nuestros cerebros humanos – simplemente no estamos hechos para ese tipo de desarrollo.

Es por eso que una de las suposiciones clave, es que consigamos que la IA funcione. No sólo mejorar un poco a Siri, sino llegar a una verdadera IA – indistinguible de los humanos. Una IA puede mejorar más rápido, y más rápido, y más rápido ya que no está limitada por nuestros cuerpos físicos.

Una de mis webs favoritas, WaitButWhy, hizo un artículo absolutamente increíble explicando esto en profundidad.

El argumento contra la Singularidad

La Singularidad tiene muchos detractores. Dos ejemplos populares:

Paul Allen: La Singularidad no está cerca (cofundador de Microsoft, fallecido en 2018)

La Singularidad es una religión solo para frikis digitales

A mí me parece que se puede dividir a los detractores en dos grupos:

  • Grupo A: La gente que simplemente no cree que la Singularidad vaya a suceder – tipos como el que mencioné al principio del artículo
  • Grupo B: La gente que cree que la Singularidad podría suceder, pero no se traga el plazo de 2045. El artículo de Paul Allen es un gran ejemplo de esto

Creo que el «Grupo A» es simplemente ingenuo. Toma a nuestro pobre humano de hace 70.000 años al que teletransportamos al presente – el mundo tiene un significado insondable para él. A sus ojos, ya somos una Singularidad. También creo que es un argumento justo que es extremadamente probable que dentro de 70.000 años hayamos pasado por otra Singularidad o hayamos aniquilado a toda la población.

También creo que nadie discutiría que el desarrollo ocurre más lentamente hoy que hace 70.000 años. Es más, hasta los más negativos estarán probablemente de acuerdo en que el ritmo es 10-100 veces más rápido hoy en día. Con este argumento, deberíamos esperar al menos una nueva singularidad técnica dentro de los próximos 700-7.000 años.

Por supuesto, algunos argumentarían que es posible que nos topemos con algún «muro tecnológico», pero aún no se ha visto un argumento convincente de que esto pueda ocurrir.

Esto nos lleva al «Grupo B», que sólo dice «Sí, podría ocurrir una singularidad – sólo que no estamos cerca». Esta es una distinción extremadamente importante.

La discusión no debería ser si la Singularidad sucederá, sino cuándo. Ray Kurzweil dice que son apenas 25 años, Paul Allen no pone una cifra pero tiene muy buenos argumentos de por qué probablemente va a tardar más de lo que, por ejemplo, espera Ray Kurzweil. Pero incluso Paul Allen probablemente estaría de acuerdo en que entre los próximos 25 y 7.000 años -sí- la singularidad habría ocurrido.

La línea de tiempo depende mucho de dos cosas: la potencia de cálculo y la rapidez con la que estamos consiguiendo inteligencia artificial superinteligente:

La suposición subyacente: la potencia de cálculo sigue creciendo exponencialmente

«La Singularidad está cerca» -el libro de Ray Kurzweil de 2005- tiene una suposición subyacente. La suposición es que la potencia de cálculo mejora exponencialmente. Al mejorar exponencialmente, las cosas se moverán más rápido. Esto hará un ciclo positivo de auto-refuerzo, haciéndonos más inteligentes, más rápidos y mejores.

Sin embargo, los detractores tienen un punto bastante válido: ¡La ley de Moores ha dejado de funcionar! La ley de Moores era simplemente que el número de transistores que podemos poner en un chip se duplicaría aproximadamente cada dos años. El único reto es que se ha ralentizado significativamente durante los últimos años.

Ese es un problema válido para la singularidad. Este es el principal y más importante supuesto para la singularidad. Pero aquí es también donde nuestros detractores y bebedores de Kool-Aid de nuevo se malinterpretan.

La multitud de la Singularidad no habla de la ley de Moores, sino de «cuánta potencia de cálculo se puede comprar por 1.000 dólares». Eso no es lo mismo que la ley de Moores, sino un término mucho más amplio. Este término permite contar con GPUs y precios aún más baratos debido a la producción en masa. Aunque la ley de Moores se ha ralentizado definitivamente, la potencia de cálculo pr. 1.000 USD parece mejorar a la misma velocidad de siempre. Al menos por ahora.

No soy un experto en computación, pero este es un punto muy válido. Si este desarrollo se ralentiza, la Singularidad se ralentizará mucho. La razón es que, cuando estás en una curva de crecimiento exponencial, siempre son las últimas duplicaciones las que significan más.

No hay grandes desarrollos de algoritmos de IA desde hace décadas

Leyendo la mayoría de los principales medios tecnológicos, parece que la IA está mejorando como un loco. Miles de millones en financiación, China, Rusia y la competencia de Estados Unidos a nivel nacional.

Lo que sorprende a la mayoría de la gente, es que los algoritmos subyacentes que usamos son los mismos que hemos usado durante décadas. En el ámbito académico, los algoritmos son prácticamente los mismos hoy que hace décadas. Lo que ha cambiado es la cantidad de datos disponibles en combinación con la potencia de cálculo disponible.

No hay duda de que la multiplicación de los datos y la potencia de cálculo nos llevará muy lejos. Durante los próximos años veremos cosas increíbles hechas a partir de esto. Sin embargo, también es un argumento muy válido que no podemos esperar máquinas sintientes a partir de los algoritmos actuales. Un argumento válido es que, dado que la Singularidad depende de la inteligencia artificial superinteligente, no podemos esperar que ocurra a menos que consigamos una actualización seria de los algoritmos.

El argumento A FAVOR de la Singularidad

¿Cambiará esto durante la próxima década o dos?

Personalmente supongo que sí. Se están invirtiendo miles de millones de dólares en proyectos como el European Human Brain Project y la American BRAIN Initiative. Pero, no deberías hacerme caso, ya que ese es uno de los problemas centrales de los fanáticos de la Singularidad. No tengo ni idea de cómo funciona el cerebro, y no tengo ni idea de lo lejos que estamos de entender o hacer ingeniería inversa del cerebro.

Otro desarrollo reciente interesante es el GPT-3.
No se copia un pájaro, para hacer volar un avión. Los aviones no se parecen a los pájaros. Tomemos el recién anunciado modelo GPT-3 de openAI. Si no has oído hablar de él, intenta buscar en Google. No trata de copiar el funcionamiento del cerebro humano. En cambio, citando el artículo: «Pero GPT-3, en comparación, tiene 175.000 millones de parámetros, más de 100 veces más que su predecesor y diez veces más que otros programas comparables». No tengo ni idea de lo que significan 175.000 millones de parámetros, pero he visto las muestras de texto de este programa. Es increíble lo que puede hacer. ¿Si esto se mejora durante 10 años? ¿Necesitamos entonces nuevos algoritmos?
(Probablemente sí, pero es interesante ver hasta dónde podemos llegar)

También es difícil argumentar que no nos hacemos más inteligentes. La historia que le gusta contar a Peter Diamandis de ‘The Singularity University’: «Incluso un niño pobre de África con un teléfono móvil tiene acceso a más información que la que tenía el presidente de los Estados Unidos hace treinta años». Tenemos acceso a más información, a una colaboración más fácil y estamos en hombros mucho más altos que antes.

Si hoy estás creando una empresa o quieres investigar algo, tienes un nivel de acceso y ayuda sin precedentes. Si quieres aprender algo, tienes todo a tu alcance.

No sé si esto es un argumento real «a favor» de la singularidad. Lo que yo diría es:

  • Somos cada vez más capaces como humanos, con una velocidad cada vez mayor
  • Entendemos cada vez más el cerebro humano -aunque probablemente mucho menos de lo que creo si le pregunto a un científico
  • Estamos viendo desarrollos asombrosos en la IA estrecha que hace solicitantes específicos
  • Personalmente me sorprendería mucho si no vemos un ordenador que pase el test de Turing dentro de 2045, y no veo improbable que no ocurra para 2029 como predijo Ray Kurzweil. Y de ahí en adelante, veremos cosas cada vez más rápidas.

    Dónde nos deja esto

    Lo que ha hecho tan famosos tanto a la Singularidad, como a Ray Kurzweil y a Peter Diamandis, son declaraciones muy atrevidas y dando plazos concretos.

    Hay que ser polémico para llamar la atención. Lo que Ray Kurzweil ha hecho, que muy pocos otros han hecho, es hacer plazos específicos & públicos sobre cuándo cree que sucederán cosas específicas. Estos plazos han recibido muchas críticas. Kurzweil suele argumentar que está casi todo correcto y los periodistas dicen que está casi todo equivocado.

    Pero lo que olvidamos aquí es por qué Ray Kurzweil las hizo en primer lugar. Ray Kurzweil, de quien soy un gran fan, identificó y acuñó el término singularidad para una gran audiencia. Comprende la importancia de dar a conocer el concepto completo al público, a una gran audiencia. ¿La mejor manera de conseguir esta atención? Hacer líneas de tiempo audaces.

    Pero lo que la gente no entiende: las líneas de tiempo no importan. Son marketing. Lo que realmente importa es el futuro hacia el que nos dirigimos. Quizás no mañana, quizás no en 2045 – pero como especie humana las cosas están a punto de volverse realmente extrañas.

    Lo que hace que la Singularidad sea extraña, es que la consecuencia será una utopía. Una utopía de inmortalidad, IA superinteligente, ingresos gratuitos para todos y mucho tiempo para explorar el universo en naves espaciales.

    Las utopías son algo peligroso para la mente racional. Las utopías combinadas con la inmortalidad son aún más peligrosas. Lo que más me molesta de la Singularidad es que sus «inventores» pronostican que la utopía y la inmortalidad casualmente ocurrirán justo en el momento en que ellos, de otro modo, morirían de viejos. Para mí, parece que la Singularidad se ha convertido en una cápsula de escape. Una esperanza de vivir para siempre.

    Mirando hacia atrás durante la historia, es fácil reírse de todos los reyes y exploradores que buscaron la fuente de la juventud. Pero tiene sentido. La muerte da miedo. La muerte es definitiva. En aquel entonces, la creencia de que se podía encontrar esa fuente de la juventud se basaba en la esperanza y en las fábulas. Hoy esa esperanza se basa en la ciencia.

    Y esto me lleva a mi comentario final:
    La Singularidad le dice a la gente inteligente que puede vivir para siempre. Y como ahora le decimos a la gente inteligente que la inmortalidad es una opción – empezamos a tratar La Singularidad como una religión pero llamada es ciencia. Por eso vemos a la gente mezclando ciencia y tonterías en un cóctel peligroso. Combina este cóctel con el deseo de ser polémico ya que eso da más publicidad y se vuelve aún más peligroso.

    Sin embargo. El hecho de que Ray Kurzweil y Peter Diamandis estén equivocados, y que la Singularidad probablemente no se produzca en 2045 y muera en el camino, no significa que no tengamos que tomarnos en serio este futuro. No te equivoques:
    La singularidad sucederá. Sólo que no para 2045.

Dejar una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *