La IA de Google se vuelve a equivocar

La integración de Copilot en Bing sorprendió a propios y a extraños, incluyendo a Google quien ha demostrado ir por un paso muy por detrás de Microsoft en todos los aspectos relacionados con la IA. Google anunció a principios de este mes las nuevas funciones de su IA generativa, Gemini, un de las cuales está relacionada con la integración en los resultados de búsqueda y que, de momento, solo está disponible en Estados Unidos en modo de prueba.

Y han hecho bien en hacerlo así ya que los resultados que ofrece esta integración dejan mucho que desear, ya que sueltan todo tipo de barbaridades, algo habitual en la IA cuando no se establecen los filtros adecuados o cuando se han las cosas de prisa y corriendo, como parece estar haciéndolas Google desde que la IA se ha convertido en una prioridad en el mundo de la tecnología.

-Falta de supervisión

Esta nueva función de Google funciona de igual forma que la integrada en Bing, respondiendo a la pregunta en base a la información que ha recopilado de Internet. El problema es que parece que se ha tomado por costumbre no supervisar ni poner en contexto el contenido que ofrece como resultado. Un ejemplo lo encontramos a la pregunta de cómo hacer que el queso se pegue a la piza. La solución que propone es utilizar pegamento no tóxico, una respuesta que un usuario publicó en Reddit para responder a esa misma cuestión.

Otro ejemplo lo encontramos en la respuesta que ofrece a si es recomendable dejar a un perro encerrado en un coche que está caliente (no se especifica si es por el sol o por la temperatura ambiente). La respuesta de la IA de Google es que sí. En este caso, la respuesta la extrae de una canción de The Beatles, concretamente de la canción It’s Okay to Leave a Dog in a Hot Car.

-No es la primera vez

Cuando Google lanzó su chatbot de IA, se enfrentó a problemas relacionados con la seguridad y ética, valores de los que carecía completamente. A principios de este año, Google se vio obligado a desactivar temporalmente la creación de imágenes de Bard al ofrecer resultados históricamente enfrentados y que no tenían sentido alguno.

Viendo la gran cantidad de errores que está presentado la IA de Google, se muestra, una vez más, que están haciendo todo lo posible por seguir a Microsoft de cualquier forma, como si la IA realmente fuera capaz de pensar, cuando realmente no es así. Cualquier IA basa sus respuestas en base al contenido con el que ha sido entrenado.

Si la información utilizada es errónea, y no es capaz de contrastarla con otra, siempre ofrecerá respuestas alejadas de la realidad. Mientras que la IA de OpenAI siguen avanzando a pasos agigantados, la IA de Google todavía tiene un larguísimo camino por recorrer si realmente quieren convertirse en un referente en todo el mundo, algo que, a estas alturas, parece imposible.

-Google se defiende

Como era de esperar, Google ha lanzado un comunicado afirmando que están trabajando para mejorar la experiencia de usuario en las búsquedas por los que cabe la posibilidad de que alguna información que se muestre no sea del todo correcta. Según afirman, están tomando nota de estos y otros ejemplos que se han publicado en Internet para evitar que vuelva a suceder en un futuro.