• Caracas (Venezuela)

Opinión

Al instante

  • Tweet:

  • Facebook Like:

  • Addthis Share:

El uso de la inteligencia artificial en variadas tareas es algo común hoy en día pero, ¿los procesos que realizan esas máquinas constituyen realmente inteligencia? Responder esa pregunta es muy difícil y, precisamente por eso, la revista MIT Technology Review dedicó su edición de marzo pasado al tema.

Actualmente se usan softwares capaces de aprender, sin ayuda humana, a jugar juegos de Atari mejor que los humanos; también hay carros autónomos, ayudantes digitales con mucha información y anteojos inteligentes capaces de ponerles nombre a las cosas. Pero no se ha podido resolver un problema fundamental: definir operativamente la inteligencia para medirla, evaluarla y compararla.

En un artículo de 1950 titulado “Maquinarias de computación e inteligencia”, publicado en la revista Mind, el científico inglés Alan Turing reflexionó sobre la capacidad de las computadoras para imitar el intelecto humano. Allí sostuvo que el acto de pensar es muy difícil de definir y por tanto, si aceptamos que los humanos somos una especie inteligente, cualquier cosa que exhiba comportamientos que no se puedan distinguir del comportamiento humano será también inteligente. A partir de entonces, ese concepto fue conocido como el Test de Turing y se ha usado como prueba para medir la inteligencia artificial.

Según se ha hecho patente la complejidad del tema, la disciplina académica envuelta en la noción de inteligencia artificial se ha fragmentado en diferentes especialidades y la investigación se desagregó en tareas más pequeñas y manejables que dieron lugar a procesos que, si bien han generado grandes avances, han convertido el concepto en algo cada vez más difícil de comparar con el intelecto humano.

Aunque la mayoría de los investigadores en inteligencia artificial siguen concentrados en áreas muy específicas, algunos vuelven a prestar atención a la inteligencia generalizada y además están pensando en nuevas formas de medir el progreso. Por ejemplo, para Leora Morgenstern, experta en inteligencia artificial de Leidos, una empresa contratista de defensa que tiene su sede en Virginia, Estados Unidos, una máquina mostrará inteligencia solo cuando pueda probar que una vez que sabe resolver una tarea que supone un reto para la inteligencia es capaz de aprender fácilmente otra tarea relacionada.

Por su parte, para el profesor Mark Riedl, del Instituto de Tecnología de Georgia (Estados Unidos), está claro, por ejemplo, que con el tiempo el carro automático lo hará mejor que los conductores humanos pero esa sería la única dimensión de su inteligencia lo que permitiría decir que es más bien un “idiota ilustrado” ya que es incapaz de hacer nada más. Esa idea ha impulsado al profesor Riedl a proponer el Test de Lovelace 2.0, una actualización de un método para medir esta inteligencia presentado en 2001, el cual se sustenta en la idea de que el rasgo distintivo de la inteligencia humana es la creatividad. Por ello, para superar el test, una máquina debe ser capaz de crear algo: un poema, una historia de ficción o una pintura, lo cual no ha sido realizado aún por ninguna.

Para la MIT Technology Review, el test de Riedl está muy lejos de ser el ideal para medir la inteligencia artificial, pero parece mejor que fijar un único objetivo. De todas formas, aún no existe ninguna tecnología que se acerque, ni de lejos, a crear una superinteligencia que supere el complejo intelecto humano, lo cual mantendrá alejado el viejo temor de que las personas perdamos el control de las máquinas y estas puedan volverse contra sus creadores.