Google AI Blunders: Poniendo pegamento en la pizza y más errores impactantes

Descubre sorprendentes errores de IA de Google, incluyendo recomendaciones de poner pegamento en la pizza y otros errores extraños. Explora los últimos desarrollos en IA de gigantes tecnológicos como Microsoft, Meta y más. Mantente informado sobre el panorama en evolución de la tecnología de IA y sus implicaciones.

24 de febrero de 2025

party-gif

Descubre las últimas noticias e ideas sobre IA en esta publicación informativa. Explora los desafíos que enfrentan gigantes tecnológicos como Google y OpenAI, y aprende sobre los emocionantes desarrollos en características impulsadas por IA de Microsoft. Mantente a la vanguardia y obtén una comprensión más profunda del mundo de la inteligencia artificial en rápida evolución.

Los errores de la IA de Google: recomendaciones desastrosas que salieron mal

Parece que los últimos esfuerzos de IA de Google han sido plagados de algunos problemas importantes, como lo demuestran las numerosas respuestas preocupantes que su IA ha proporcionado cuando se le consulta directamente a través de Google Search.

Algunos ejemplos de las recomendaciones problemáticas de la IA incluyen:

  • Sugerir agregar pegamento no tóxico a la salsa de pizza para que el queso se pegue mejor.
  • Afirmar que 1919 fue hace 20 años.
  • Recomendar que las mujeres embarazadas fumen de 2 a 3 cigarrillos por día.
  • Afirmar que siempre es seguro dejar a un perro en un auto caliente.
  • Fabricar detalles sobre la muerte ficticia de un personaje de Bob Esponja.
  • Proporcionar un proceso complicado de varios pasos para determinar el número de hermanas de una persona.

Estas respuestas generadas por IA no solo son inexactas, sino que en muchos casos podrían ser activamente dañinas si se siguen. Parece que la IA de Google está teniendo dificultades para proporcionar información confiable y fáctica cuando se le consulta directamente, lo que plantea serias preocupaciones sobre la seguridad y confiabilidad de integrar dicha tecnología en la funcionalidad central de búsqueda.

Si bien Google ha afirmado que la voz utilizada en su reciente demostración de GPT-4 no era la de Scarlett Johansson, la similitud ha generado controversia y preguntas sobre sus prácticas. La asociación de la compañía con News Corp también genera preocupaciones sobre posibles sesgos, aunque Google mantiene que la principal preocupación es el conjunto de datos de entrenamiento existente, no el nuevo acceso al contenido.

En general, estos incidentes resaltan la necesidad crítica de pruebas rigurosas, supervisión y transparencia a medida que los sistemas de IA se integran más profundamente en los servicios cotidianos. Google deberá abordar estos problemas rápidamente para mantener la confianza de los usuarios y garantizar la seguridad de sus ofertas impulsadas por IA.

Yan Luo deja OpenAI y plantea preocupaciones de seguridad

Yan Luo, el jefe de superalineación en OpenAI, ha dejado la compañía. En un hilo en Twitter, Luo expresó preocupaciones sobre las prioridades de OpenAI, afirmando que ha estado "en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo".

Luo cree que se debería dedicar más ancho de banda de OpenAI a "prepararse para las próximas generaciones de modelos en monitoreo de seguridad, preparación, seguridad, robustez adversaria, superalineación, confidencialidad, impacto social y temas relacionados". Le preocupa que estas áreas de investigación cruciales hayan pasado a un segundo plano frente a "productos brillantes".

La salida de Luo se produce poco después de la partida de Ilya Sutskever, el científico jefe de OpenAI. Si bien Sutskever se fue en buenos términos, la salida de Luo parece ser más controvertida, con la sugerencia de que los empleados de OpenAI que critican a la compañía pueden enfrentar consecuencias, como la pérdida de acciones devengadas.

El CEO de OpenAI, Sam Altman, ha reconocido las preocupaciones de Luo y ha declarado que la compañía se compromete a abordarlas. Sin embargo, la situación resalta el debate en curso dentro de la comunidad de IA sobre el equilibrio entre innovación y seguridad.

A medida que continúa el desarrollo de sistemas de IA avanzados, la importancia de priorizar la seguridad y la alineación con los valores humanos se vuelve cada vez más crítica. La salida de Luo de OpenAI subraya la necesidad de que las empresas de IA mantengan un fuerte enfoque en estos temas cruciales.

La controversia de la voz de OpenAI: disputa con Scarlett Johansson

Según informes, la reciente demostración de GPT-4 de OpenAI presentó una voz muy similar a la de la actriz Scarlett Johansson de la película "Her". Aparentemente, OpenAI se había comunicado con Johansson para usar su voz, pero ella se negó. Sin embargo, OpenAI afirma que contrataron a un actor de voz cuya voz resultó ser similar, y nunca fue su intención replicar la voz de Johansson.

Esto ha generado una controversia, ya que muchos creen que OpenAI simplemente encontró una manera de usar un actor de voz que sonaba como Johansson, a pesar de que se les negó el permiso para usar su voz real. Si bien OpenAI mantiene que no copiaron la voz de Johansson, el público parece haberse alineado con la actriz, viéndolo como un caso de área gris.

Los puntos clave son:

  • OpenAI se comunicó con Scarlett Johansson para usar su voz, pero ella se negó.
  • OpenAI afirma que contrataron a un actor de voz cuya voz resultó ser similar, sin intención de replicar la voz de Johansson.
  • Muchos creen que OpenAI encontró una manera de usar un actor de voz similar, a pesar de que se les negó la voz real de Johansson.
  • Es un área gris controversial, con el público inclinándose más hacia el lado de Johansson en el asunto.

En general, este incidente ha planteado preguntas sobre la ética y la transparencia en torno a la generación de voces de IA, especialmente cuando se trata de usar voces que se asemejan mucho a personas reales sin su consentimiento.

La asociación de OpenAI con News Corp: posibles implicaciones de sesgo

OpenAI ha anunciado recientemente una asociación con News Corp, brindándoles acceso a contenido de importantes publicaciones de noticias e información. Esto ha generado preocupaciones sobre la posible introducción de sesgos en los modelos de lenguaje de OpenAI, particularmente en ChatGPT.

Sin embargo, la realidad es que el contenido de News Corp probablemente ya esté entrenado en ChatGPT, y esta asociación simplemente proporciona un enfoque más ético y transparente para acceder a estos datos. Es poco probable que los sesgos existentes en los datos de entrenamiento se vean alterados de manera significativa por este nuevo acuerdo.

Si bien News Corp es conocida por sus inclinaciones políticas más extremas, particularmente a través de su división Fox News, no se espera que el impacto en las salidas de ChatGPT sea sustancial. El modelo de lenguaje ya ha sido entrenado en una gran cantidad de datos en línea, que probablemente incluyen contenido de una amplia gama de fuentes de noticias, tanto de izquierda como de derecha.

La asociación con News Corp simplemente proporciona a OpenAI el permiso legal para usar este contenido en su entrenamiento futuro, en lugar de depender de fuentes de datos potencialmente sesgadas o incompletas. Este movimiento hacia la transparencia y la adquisición ética de datos es un paso positivo, incluso si las implicaciones prácticas para las salidas de ChatGPT pueden ser limitadas.

En última instancia, si bien la asociación con News Corp plantea preocupaciones válidas sobre posibles sesgos, la realidad es que las salidas de ChatGPT probablemente ya estén influenciadas por una diversidad de fuentes de noticias, tanto en términos de inclinaciones políticas como de calidad. La asociación se trata más de formalizar y legitimar las fuentes de datos utilizadas, en lugar de introducir sesgos significativos nuevos en el modelo de lenguaje.

Rumor: Apple integrará los modelos de OpenAI en Siri

Esto entra más en el territorio de los rumores, pero es una afirmación que vale la pena discutir. Según el sitio web Mac Daily News, hay un rumor de que Apple se asociará con OpenAI y que esto se anunciará en WWDC.

Esto también ha sido reportado por Bloomberg, pero aún no ha sido confirmado ni por Apple ni por OpenAI. El rumor actual es que la nueva versión de Siri en el próximo iPhone de Apple podría estar impulsada por los últimos modelos de GPT de OpenAI.

También hemos escuchado rumores de que Apple ha estado hablando con Google sobre integrar Gemini, otro modelo de lenguaje a gran escala, en sus productos. Sin embargo, no sabremos con certeza cuál será el resultado hasta el evento WWDC.

Si el rumor es cierto y Apple termina integrando los modelos de OpenAI en Siri, podría llevar a mejoras significativas en las capacidades de Siri. Los modelos de lenguaje de OpenAI, como GPT-4, han demostrado un rendimiento impresionante en una variedad de tareas. Integrar estos modelos podría ayudar a que Siri sea más conversacional, con más conocimientos y capaz de entender y responder a consultas en lenguaje natural.

Al mismo tiempo, pueden surgir preocupaciones sobre posibles sesgos o limitaciones que podrían introducirse a través de los modelos de OpenAI. Será importante que Apple evalúe y aborde cuidadosamente cualquier problema de este tipo para garantizar que Siri siga siendo un asistente confiable y digno de confianza.

En general, el rumor de que Apple se asocie con OpenAI para Siri es uno intrigante, y será interesante ver si se materializa en el próximo evento WWDC. Como con cualquier rumor, es mejor esperar la confirmación oficial antes de sacar conclusiones.

Aspectos destacados del evento Microsoft Build: PCs Co-Pilot, función de recuperación y más

En el evento Microsoft Build en Seattle, el gigante tecnológico presentó varios nuevos y emocionantes recursos y actualizaciones:

  1. Co-Pilot PCs: Microsoft presentó las "Co-Pilot PCs", computadoras con una Unidad de Procesamiento Neural (NPU) dedicada para ejecutar inferencia de IA de forma local, permitiendo a los usuarios interactuar con asistentes de IA sin depender de la nube.

  2. Función de Recall: Se anunció una nueva función llamada "Recall", que permite a los usuarios ver todo el historial de uso de su computadora, incluyendo navegación, aplicaciones y más. Sin embargo, esta función generó preocupaciones de privacidad debido al potencial de exposición de datos sensibles si el dispositivo se pierde o se ve comprometido.

  3. Mejoras en Microsoft Paint: Microsoft Paint recibió mejoras impulsadas por IA, incluyendo la capacidad de generar imágenes, mejorar bocetos y rediseñar imágenes existentes.

  4. Mejoras en el navegador Edge: El navegador Microsoft Edge ganó nuevas capacidades de traducción y transcripción, permitiendo la traducción y transcripción en tiempo real durante las videollamadas y reuniones.

  5. Co-Pilot para Teams: Microsoft presentó un "miembro del equipo" de IA que se puede integrar en Microsoft Teams, ayudando con tareas como crear listas de verificación y resumir reuniones.

  6. Modelo de Lenguaje F3: Microsoft anunció un nuevo modelo de lenguaje multimodal pequeño llamado "F3", que probablemente será comparado con otros modelos de lenguaje a gran escala por expertos en el campo.

  7. Extensiones de GitHub Co-Pilot: Microsoft amplió las capacidades de GitHub Co-Pilot, agregando integraciones con varias herramientas de desarrollo y la capacidad de crear extensiones privadas personalizadas.

En general, el evento Microsoft Build mostró el continuo enfoque de la compañía en integrar tecnologías de IA en sus productos y servicios, con el objetivo de mejorar la productividad y la experiencia del usuario.

Conclusión

Los recientes desarrollos en el mundo de la IA han sido bastante eventos. Desde los errores de la IA de Google hasta la partida de figuras clave de OpenAI, la industria ha estado llena de noticias y controversias.

Los resultados de búsqueda de la IA de Google han planteado preocupaciones sobre la confiabilidad y seguridad de los sistemas de IA, con la empresa recomendando soluciones cuestionables como agregar pegamento a la pizza. Esto resalta la necesidad de pruebas y supervisión rigurosas para garantizar que los sistemas de IA proporcionen información precisa y segura.

La partida de Yan Lecun, el jefe de superalineación en OpenAI, también ha generado discusiones sobre las prioridades de la compañía. Las preocupaciones de Lecun sobre el enfoque de OpenAI en "productos brillantes" en lugar de la seguridad y la seguridad son un recordatorio sombrío de los desafíos en el desarrollo de sistemas de IA avanzados.

Los anuncios de Microsoft en el evento Build, incluida la introducción de las computadoras Copilot Plus y la nueva función Recall, han generado tanto entusiasmo como preocupaciones por la privacidad. Si bien las capacidades impulsadas por IA tienen un gran potencial, los posibles riesgos de seguridad asociados con la función Recall deben abordarse.

En el ámbito del arte de IA, plataformas como Leonardo AI y Midjourney continúan evolucionando, introduciendo nuevas funciones y herramientas de colaboración. La integración de Adobe Firefly en Lightroom también muestra la creciente integración de herramientas impulsadas por IA en los flujos de trabajo creativos.

En general, el panorama de la IA sigue siendo dinámico y de rápido movimiento, con avances y desafíos emergentes. A medida que la tecnología continúe evolucionando, será crucial que las empresas, los investigadores y el público mantengan un enfoque equilibrado y responsable para garantizar el desarrollo seguro y ético de los sistemas de IA.

Preguntas más frecuentes