Saltar al contenido

Cuando se trata de gorilas, Google Photos sigue siendo ciego

julio 2, 2021


En 2015, un desarrollador de software negro avergonzó a Google por tuiteando que el servicio de Fotos de la compañía había etiquetado las fotos de él con un amigo negro como «gorilas». Google se declaró a sí mismo «consternado y sinceramente arrepentido. » Un ingeniero que se convirtió en la cara pública de la operación de limpieza dijo que la etiqueta gorila ya no se aplicaría a grupos de imágenes, y que Google estaba «trabajando en soluciones a largo plazo. «

Más de dos años después, una de esas soluciones es borrar a los gorilas y a algunos otros primates del léxico del servicio. La incómoda solución ilustra las dificultades a las que se enfrentan Google y otras empresas tecnológicas para avanzar en la tecnología de reconocimiento de imágenes, que las empresas esperan utilizar en vehículos autónomos, asistentes personales y otros productos.

WIRED probó Google Photos utilizando una colección de 40.000 imágenes bien surtidas con animales. Se desempeñó de manera impresionante para encontrar muchas criaturas, incluidos pandas y caniches. Pero el servicio informó que «no se obtuvieron resultados» para los términos de búsqueda «gorila», «chimpancé», «chimpancé» y «mono».

Google ha censurado las búsquedas de «gorila», «chimpancé» y «mono» dentro de su servicio de organización de fotos personales Google Photos.

Captura de pantalla: cableado

Google Photos, que se ofrece como una aplicación móvil y un sitio web, brinda a 500 millones de usuarios un lugar para administrar y realizar copias de seguridad de sus instantáneas personales. Utiliza tecnología de aprendizaje automático para agrupar automáticamente fotos con contenido similar, digamos lagos o lattes. La misma tecnología permite a los usuarios buscar en sus colecciones personales.

En las pruebas de WIRED, Google Photos identificó algunos primates. Las búsquedas de «babuino», «gibón», «tití» y «orangután» funcionaron bien. Los monos capuchinos y colobos se pueden encontrar siempre que una búsqueda utilice esos términos sin agregar la palabra M.

En otra prueba, WIRED subió 20 fotos de chimpancés y gorilas procedentes de organizaciones sin fines de lucro Chimp Haven y el Instituto Dian Fossey. Algunos de los simios se pudieron encontrar utilizando los términos de búsqueda «bosque», «jungla» o «zoológico», pero el resto resultó difícil de salir a la superficie.

El resultado: dentro de Google Photos, un babuino es un babuino, pero un mono no es un mono. Los gorilas y los chimpancés son invisibles.

Google Lens, que intenta interpretar fotos en un teléfono inteligente, tampoco parece poder ver gorilas.

Captura de pantalla: cableado

En una tercera prueba que intentaba evaluar la visión de las personas de Google Photos, WIRED también cargó una colección de más de 10,000 imágenes utilizadas en la investigación de reconocimiento facial. El término de búsqueda «afroamericano» mostró sólo una imagen de antílope pastando. Al escribir «hombre negro», «mujer negra» o «persona negra», el sistema de Google devolvía imágenes en blanco y negro de personas, ordenadas correctamente por género, pero no filtradas por raza. Los únicos términos de búsqueda con resultados que parecían seleccionar para personas con tonos de piel más oscuros fueron «afro» y «africano», aunque los resultados fueron mixtos.

Un portavoz de Google confirmó que «gorila» fue censurado de búsquedas y etiquetas de imágenes después del incidente de 2015, y que «chimpancé», «chimpancé» y «mono» también están bloqueados hoy. «La tecnología de etiquetado de imágenes aún es temprana y, desafortunadamente, no es perfecta», escribió el portavoz en un correo electrónico, destacando una función de Google Photos que permite a los usuarios informar errores.

La precaución de Google sobre las imágenes de gorilas ilustra una deficiencia de la tecnología de aprendizaje automático existente. Con suficientes datos y potencia informática, el software puede entrenarse para categorizar imágenes o transcribir voz con un alto nivel de precisión. Pero no puede ir más allá de la experiencia de ese entrenamiento. E incluso los mejores algoritmos carecen de la capacidad de usar el sentido común, o conceptos abstractos, para refinar su interpretación del mundo como lo hacen los humanos.

Como resultado, los ingenieros de aprendizaje automático que implementan sus creaciones en el mundo real deben preocuparse por los «casos de esquina» que no se encuentran en sus datos de entrenamiento. “Es muy difícil modelar todo lo que verá su sistema una vez que esté activo”, dice Vicente Ordóñez Román, profesor de la Universidad de Virginia. Contribuyó a una investigación el año pasado que mostró que los algoritmos de aprendizaje automático aplicados a las imágenes podían captar y amplificar puntos de vista sesgados de los roles de género.

Los usuarios de Google Photos cargan fotos tomadas en todo tipo de condiciones imperfectas. Dada la cantidad de imágenes en la enorme base de datos, una pequeña posibilidad de confundir un tipo de gran simio con otro puede convertirse en casi una certeza.





Source link

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *