En 1950, la pregunta que da título a esta nota fue contestada por el matemático Alan M. Turing, afirmando que si era imposible distinguir las respuestas de una máquina de las de un hombre, la máquina estaba pensando.

La prueba inversa es el método Captcha, acrónimo inglés que significa Prueba de Turing Pública y Automática para Diferenciar a Máquinas y Humanos. Este test presenta una serie de caracteres alfanuméricos deformados que deben reconocerse visualmente para determinar si el usuario que intenta acceder a un sitio web es un ser humano o un programa robot. Casi todos nosotros hemos pasado por esta prueba para acceder a un foro o a una web.

Se supone que solamente un humano puede aprobar el examen, efectuando un tipo de análisis que se llamaría pensamiento.

El investigador y escritor Raymond Kurzweil afirma que las máquinas alcanzarán este tipo de capacidadad por la simple evolución de sus sistemas computacionales, que duplican su capacidad cada 18 meses según la Ley de Moore.

Después de un desmesurado optimismo durante la década de los 80, la inteligencia artificial parece estar integrándose a nuestra vida a través de aplicaciones mas cotidianas y menos espectaculares que las que se prometían en aquella época.

La herramienta de Photoshop /Spot Healing Brush, esa que en nuestro país lleva el apodo de “La Curita”, incorpora un grado elemental de inteligencia artificial . Actúa contextualmente, tomando en cuenta para funcionar las texturas de la imagen a retocar.

Algunos investigadores prefieren reemplazar la idea de “pensamiento” por la de aprendizaje para determinar la inteligencia de un sistema. “La Curita” estaría cumpliendo con esa evaluación del entorno.

Una cámara reacciona hoy ante la presencia de ojos cerrados o de sonrisas. Cuantos ciclos de Moore tienen que pasar antes de que reaccione ante colores, gestos, formas, actitudes o estéticas particulares?

Para ver lo que existe hoy y aplicarle luego el cuadrado, el cubo o la potencia que ustedes prefieran, podemos revisar un juguete interesante. A esta altura, determinar si estos artefactos piensan o no, resulta secundario. Lo que importa es lo que hacen. Y lo que pueden llegar a hacer en el futuro.

Retrievr, algo así como «Recuperador», está en http://labs.systemone.at/retrievr y busca imágenes por similaridad en la base de datos Flickr. Puede hacerlo a partir de un dibujo elemental, como vemos en la ilustración. También podemos subir una imagen desde nuestra computadora y en este caso el software buscará imágenes similares.

La aplicación busca teniendo en cuenta las características visuales de la imagen y no palabras asociadas. No estaríamos ante una aplicación semántica, que trabaja con etiquetas o descripciones de las imágenes, sino ante un programa que busca “en” las propias imágenes, sin el agregado de etiquetas externas.

Así, alguien puede buscar un objeto o una cara entre los millones de imágenes que, hibernados visualmente en flickr, esperan despertar en la pantalla de nuestros monitores.

Retrievr

1) Retrievr trabajando sobre un dibujo hecho en la pantalla. Miren lo que encontró. 2) Una imagen subida a Retrievr da como resultado estos hallazgos.

Los grandes archivos fotográficos como JupiterImages http://www.jiunlimited.com/en/ tienen implementaciones de este tipo para refinar la búsqueda de imágenes.

Jupiterimages

Una búsqueda de flores rojas en Jupiterimages.

Así resulta posible buscar fotografías de acuerdo a un color determinado, que puede ser incluso un valor hexadecimal o RGB

No sería imposible encontrar en el futuro búsquedas por contenido visual.

Empezando de nuevo, podríamos redefinir el título de esta nota como ¿Puede una máquina ver?

Mariano Molinari
(Copyright Mariano Molinari)