Inteligencia Artificial II

En Inteligencia Artificial I hablamos sobre el estado actual de la tecnología y lo lejos que estamos aún de la “inteligencia artificial general” cuando finalmente logremos que una máquina alcance el nivel de inteligencia y conciencia de los seres humanos. 

Los expertos en inteligencia artificial vaticinan que hay un 10% de probabilidad de alcanzar la inteligencia artificial general en los próximos diez años, un 50% de probabilidad de que ocurra en los próximos veinte y un 70% de que ocurra en un plazo de tiempo más largo. Estas son más o menos las mismas probabilidades que asignaban en el 2010 y en el 2000.

Probablemente la predicción más famosa hoy es la del futurista Ray Kurzweil, que vaticina que el año 2045 será el año de la “singularidad” en que una máquina supere por primera vez la inteligencia general de un humano.

Si bien hay varias formas de llegar a la inteligencia artificial general, asumamos que el camino es a través de la interacción de distintos algoritmos matemáticos usando un gran poder de cómputo. ¿Qué pasará ese día?

Lo primero es la definición de inteligencia. Hoy el coeficiente intelectual de los humanos oscila entre 90 y 109 en el rango normal siendo un coeficiente intelectual debajo de 90 considerado "poco inteligente" y un coeficiente intelectual de 130 o más considerado "superdotado". Si logramos diseñar un conjunto de algoritmos que aprendan solos nada nos puede hacer suponer que pararán en un coeficiente intelectual de 100, 150 o 200. Así que tendremos máquinas que de la noche a la mañana pueden tener niveles de inteligencia que superen a nuestra especie en órdenes de magnitud. ¿Por qué delegar entonces el gobierno de un país, la redacción de una carta fundamental o la gestión de una pandemia a humanos claramente "inferiores"?

Segundo, ¿Porque asumimos que sólo habrá una inteligencia artificial? En el pasado los grandes avances científicos se han desarrollado en distintos lugares de distintas formas y si bien casi siempre pasa a la historia el primer descubridor, habitualmente había más de una iniciativa avanzada. Entonces si tuviésemos dos o más inteligencias artificiales superiores ¿A cuál seguiremos? ¿Pensarán lo mismo? ¿Lucharán por la supremacía? 

Tercero, ¿Cómo controlaremos la inteligencia artificial? Si su inteligencia es superior a la nuestra en órdenes de magnitud difícilmente seamos capaces de controlar a las máquinas. Por ejemplo si la máquina decide que para que sus procesadores funcionen necesita de energía y el ser humano está compitiendo por sus fuentes de energía ¿Cómo gestionará el problema? ¿Cómo inculcamos valores y un sentido ético a la máquina?

Es bueno recordar las leyes de la robótica de Isaac Asimov escritas en 1942:

  1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
  2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Al final la inteligencia artificial será un desarrollo generado por la inteligencia humana y más que temer a la inteligencia artificial debemos temer a la estupidez humana.

Leave a Reply

Your email address will not be published. Required fields are marked *