Noticias de IA: Una semana ocupada en los avances y desarrollos de la IA
Descubre los últimos avances y desarrollos de IA de la semana pasada, incluyendo la avanzada función de voz de OpenAI, las capacidades de salida prolongada de GPT-4, las afirmaciones de competencia de IA de Microsoft y las actualizaciones de Google, Anthropic, Meta y más. Mantente a la vanguardia en el mundo en constante evolución de la IA.
21 de febrero de 2025

Este artículo de blog ofrece una descripción general exhaustiva de los últimos avances en el mundo de la IA, cubriendo una amplia gama de temas desde las nuevas funciones de voz en ChatGPT de OpenAI hasta la adquisición de Leonardo AI por parte de Canva. Los lectores obtendrán información sobre el rápidamente cambiante panorama de la IA y los emocionantes desarrollos que están dando forma al futuro de esta tecnología.
Función de voz avanzada de Open AI
Salida prolongada de GPT-4
Open AI como competidor de Microsoft
Respaldo de Open AI a la regulación de la IA
Anthropic lanza Claud en Brasil
Google Gemini 1.5 Pro y otros modelos de IA
Nuevas funciones de IA en Google Chrome
Meta elimina chatbots de IA y lanza nuevo estudio de IA
Modelo Segment Anything 2 de Meta
Programa de editores de Perplexity
Leonardo AI adquirido por Canva
Actualización 6.1 de Mid Journey
Nuevos generadores de modelos 3D
Nuevo modelo Flux de Black Forest Labs
Imagen a video y Gen 3 Alpha Turbo de Runway
Avatares e influencers generados por IA
Traducción automática de videos de Vimeo
Respuesta de Anthropic a demandas
La controversia del collar de IA "Amigo"
Otras noticias de IA
Función de voz avanzada de Open AI
Función de voz avanzada de Open AI
Open AI ha comenzado a implementar una función de voz avanzada a unos pocos usuarios seleccionados. Esta nueva función permite a los usuarios generar voces similares a las humanas, incluyendo la capacidad de imitar voces como la de Scarlett Johansson.
Algunos aspectos clave del modo de voz avanzado:
- Los usuarios con acceso pueden probar la opción "Modo de voz avanzado" en la parte inferior de la ventana de chat.
- Puede generar voces que suenan muy realistas, incluyendo la capacidad de imitar voces de celebridades y figuras públicas.
- Los usuarios pueden interrumpir la voz mientras está hablando, una función que no está disponible en la aplicación estándar de chat GPT.
- Las demostraciones muestran que el modelo de voz puede contar muy rápidamente, incluso simulando la necesidad de tomar un respiro.
Sin embargo, esta función de voz avanzada está actualmente disponible solo para un número limitado de usuarios. La mayoría de las personas aún no tienen acceso para probarla. Open AI ha anunciado la nueva función, pero la está implementando lentamente a un grupo selecto por ahora.
Salida prolongada de GPT-4
Salida prolongada de GPT-4
Open AI ha lanzado recientemente una versión experimental de GPT-4 llamada "GPT-4 Long Output". Este nuevo modelo tiene una salida máxima de 64,000 tokens por solicitud, lo que permite respuestas mucho más largas y detalladas en comparación con el modelo GPT-4 estándar.
El modelo GPT-4 Long Output está actualmente disponible solo para un grupo selecto de participantes Alpha y aún no es accesible para el público en general. Esta versión experimental está diseñada para proporcionar a los usuarios la capacidad de generar salidas extremadamente largas y exhaustivas en respuesta a sus consultas.
Si bien los detalles de la arquitectura y el proceso de entrenamiento del modelo no se han divulgado públicamente, el aumento de la longitud de la salida se logra probablemente a través de avances en la memoria y las capacidades de razonamiento del modelo. Esto le permite mantener el contexto y la coherencia en un texto mucho más largo, lo que le permite proporcionar respuestas más detalladas y en profundidad.
Las posibles aplicaciones del modelo GPT-4 Long Output son vastas, que van desde tareas de investigación y análisis extendidos hasta la generación de contenido de larga duración como informes, ensayos o incluso libros. Sin embargo, como con cualquier tecnología de IA poderosa, también existen preocupaciones sobre el posible mal uso o las consecuencias no deseadas de dicho modelo.
Open AI ha declarado que está trabajando en estrecha colaboración con organismos reguladores y otras partes interesadas para garantizar el desarrollo y la implementación responsables del modelo GPT-4 Long Output. Esto incluye la implementación de salvaguardas y pautas para evitar que el modelo se utilice con fines dañinos o poco éticos.
En general, el lanzamiento del modelo GPT-4 Long Output representa un hito significativo en el avance de los modelos de lenguaje a gran escala y su capacidad para participar en formas más complejas y matizadas de comunicación y procesamiento de información. A medida que la tecnología continúe evolucionando, será crucial que los investigadores, los responsables políticos y el público en general monitoreen de cerca su desarrollo e impacto.
Open AI como competidor de Microsoft
Open AI como competidor de Microsoft
Esta semana, Microsoft ahora afirma que Open AI es un competidor en IA y búsqueda. Esto es interesante porque Microsoft ha invertido famosamente $13 mil millones en Open AI y posee el 49% de la empresa.
En sus informes financieros, Microsoft enumeró empresas como Anthropic, Open AI, Meta y otras ofertas de código abierto como competidores de sus ofertas de IA. Esto es extraño de ver, ya que Open AI es propiedad del 49% de Microsoft y tienen acuerdos de asociación con Meta también.
Parece que Microsoft ahora está viendo a Open AI como un competidor de su propio negocio de búsqueda y publicidad de noticias, a pesar de tener una participación importante en la empresa. Esta es una dinámica muy interesante que se ha desarrollado entre las dos empresas.
Respaldo de Open AI a la regulación de la IA
Respaldo de Open AI a la regulación de la IA
Open AI esta semana respaldó algunos proyectos de ley del Senado relacionados con la regulación y la seguridad de la IA. Esto incluye la Ley del Futuro de la Innovación en IA, que formalizaría la autorización del Instituto de Seguridad de IA de los Estados Unidos como un organismo federal para establecer estándares y pautas para los modelos de IA.
Open AI también respaldó la Ley de Educación en IA de la NSF y la Ley CREATE AI, que proporcionan becas federales para la investigación en IA y establecen recursos educativos en IA dentro de las universidades y las escuelas K-12.
Estos respaldos de Open AI probablemente sirvan para ayudar a la empresa a tener un asiento en la mesa en futuras conversaciones sobre la regulación de la IA. Como una importante empresa de IA, Open AI es un candidato probable a enfrentar un escrutinio regulatorio en el futuro. Al respaldar estos proyectos de ley, Open AI puede ayudar a dar forma a la dirección de la regulación y asegurar que sus intereses estén representados.
Además, Open AI se comprometió a dar al Instituto de Seguridad de IA de EE. UU. acceso anticipado a su próximo modelo. Esto parece ser un esfuerzo por contrarrestar la narrativa de que Open AI ha priorizado menos la seguridad de la IA en la búsqueda de tecnologías de IA generativa más poderosas.
En general, los movimientos de Open AI sugieren que la empresa está trabajando para acercarse al gobierno de EE. UU. y posicionarse como un actor clave en el desarrollo de la regulación y los estándares de seguridad de la IA.
Anthropic lanza Claud en Brasil
Anthropic lanza Claud en Brasil
Buenas noticias para los que están en Brasil: Anthropic ha lanzado su asistente de IA Claud en el país esta semana. Claud ya está disponible para que los usuarios de Brasil accedan e interactúen con él.
Google Gemini 1.5 Pro y otros modelos de IA
Google Gemini 1.5 Pro y otros modelos de IA
Google también ha estado causando un gran revuelo en el mundo de la IA esta semana. Lanzaron una nueva versión de Gemini 1.5 Pro, llamándola versión 0801, que ya está disponible para usar dentro del Estudio de IA de Google.
Para acceder a ella, puedes ir a AI Studio .g google.com y en el menú desplegable "Modelo", verás "Gemini 1.5 Pro experimental 0801": ese es el modelo que quieres usar.
Cuando chatees con este nuevo modelo Gemini 1.5 Pro, ha encabezado el ranking en lm.org, superando incluso a GPT-4, GPT-4 Mini, CLAE 3.5 y Sonet.
Google también lanzó esta semana una nueva versión más pequeña de su modelo Gemini 2: un modelo de 2 mil millones de parámetros construido para un mejor rendimiento y eficiencia, probablemente para dispositivos móviles. Curiosamente, este modelo de 2 mil millones de parámetros supera a modelos mucho más grandes como Mixdral 8X 7B, GPT-3.5 Turbo y LLaMA 2 70 mil millones.
Además de los nuevos modelos Gemini, Google agregó algunas impresionantes nuevas funciones de IA en Chrome esta semana, incluyendo la integración de Google Lens que puede identificar y buscar objetos en imágenes, y una nueva función de comparación que puede comparar productos entre diferentes sitios web.
En general, Google ha estado empujando los límites de los modelos de lenguaje a gran escala y las capacidades de IA en Chrome, demostrando su continua innovación y liderazgo en el espacio de la IA.
Nuevas funciones de IA en Google Chrome
Nuevas funciones de IA en Google Chrome
Esta semana, Google agregó algunas nuevas funciones impulsadas por IA a su navegador Chrome:
-
Google Lens en Chrome de escritorio: Ahora puedes usar Google Lens para buscar información sobre objetos en imágenes directamente desde el navegador Chrome. Simplemente selecciona un área de una imagen y Lens buscará productos similares o identificará el objeto.
-
Comparación de productos: Chrome ahora tiene una función integrada que te permite comparar productos entre diferentes pestañas y sitios web. Esto facilita la investigación y la comparación de artículos sin tener que cambiar entre pestañas.
-
Historial de búsqueda en lenguaje natural: Ahora puedes usar lenguaje natural para buscar en tu historial de navegación de Chrome. Por ejemplo, puedes preguntar "¿Qué heladería miré la semana pasada?" y Chrome mostrará la información relevante de tu historial de búsqueda.
Estas nuevas funciones impulsadas por IA en Chrome demuestran los esfuerzos continuos de Google por integrar capacidades inteligentes directamente en sus productos y servicios principales. Al aprovechar tecnologías como la visión por computadora y el procesamiento del lenguaje natural, Google está facilitando que los usuarios encuentren información, comparen productos y naveguen por su historial de navegación, todo sin salir del navegador Chrome. A medida que la IA continúe avanzando, podemos esperar ver más de este tipo de funciones inteligentes en el conjunto de herramientas y aplicaciones de Google.
Meta elimina chatbots de IA y lanza nuevo estudio de IA
Meta elimina chatbots de IA y lanza nuevo estudio de IA
Esta semana, Meta eliminó una de las funciones que anunció en la última conferencia de Meta Connect. Habían mostrado chatbots de IA que parecían personas famosas, pero no eran los chatbots reales de esas personas famosas: solo usaban su rostro, pero se entrenaron con información diferente. Sin embargo, a nadie realmente le gustaron, así que Meta se deshizo de ellos.
Pero lo reemplazaron con otra cosa: ahora, cualquiera puede crear su propia IA personalizada. Meta lanzó un Estudio de IA, y uno de mis amigos, Don Allen Stevenson, es una de las personas que obtuvo acceso anticipado.
Esta nueva función permite a cualquiera crear personajes de IA basados en sus intereses. Puedes ir a ai.meta.com/AI-Studio y crear tu propio personaje de IA personalizado, eligiendo opciones como mascota de IA, tutor privado, fanático, artista imaginativo, tablero de ideas, diseñador creativo, estilista personal y más.
El proceso genera una imagen de personaje con IA, le da un nombre y un eslogan, y luego puedes personalizar y diseñar aún más lo que quieres que haga esta IA. Por ahora, parece un poco una novedad, ya que no puedes importar fácilmente grandes documentos o transcripciones para permitir que las personas chateen con una versión de IA avatar de ti. Pero probablemente es hacia donde están tratando de llevar esto en el futuro.
Lo más impresionante que lanzó Meta esta semana es su nuevo Modelo de Segmentación de Cualquier Cosa 2 (SAM 2). Este es un modelo que puede segmentar ciertas secciones de una imagen o video con una precisión impresionante, incluso rastreando objetos a medida que se mueven. Es una gran mejora con respecto a los modelos de segmentación anteriores y podría ser muy útil para tareas de edición de video como el rotoscopiado. Puedes probar SAM 2 en sam2.metademolab.com.
En general, Meta continúa empujando los límites de lo que es posible con la IA, incluso si algunas de sus funciones orientadas al consumidor pueden parecer un poco gimmick por el momento. Será interesante ver cómo evolucionan su Estudio de IA y sus herramientas de segmentación con el tiempo.
Modelo Segment Anything 2 de Meta
Modelo Segment Anything 2 de Meta
Meta ha lanzado una nueva versión de su Modelo de Segmentación de Cualquier Cosa, llamado SAM 2. Este modelo actualizado demuestra mejoras significativas en su capacidad para segmentar con precisión objetos en imágenes y videos.
Algunas características clave de SAM 2 incluyen:
- Mejor capacidad para rastrear objetos a través de oclusiones: el modelo puede continuar siguiendo un objeto incluso cuando pasa temporalmente detrás de otro objeto.
- Mayor precisión de segmentación, lo que le permite delinear con más precisión los límites de los objetos detectados.
- Mayor velocidad de procesamiento, lo que permite la segmentación en tiempo real en aplicaciones de video.
- Mayor versatilidad, con el modelo capaz de segmentar una amplia gama de objetos, desde personas y animales hasta formas y estructuras más complejas.
Los demos proporcionados por Meta muestran las impresionantes capacidades de SAM 2. Por ejemplo, el modelo puede rastrear con precisión a un patinador a medida que se mueve a través de una escena, manteniendo la segmentación incluso cuando el patinador pasa detrás de un árbol. De manera similar, puede aislar y seguir múltiples pelotas en un video, distinguiendo cada una individualmente.
Estos avances en la tecnología de segmentación tienen implicaciones emocionantes para la edición de video, los efectos visuales y otros flujos de trabajo de producción de medios. Al automatizar el tedioso proceso del rotoscopiado, SAM 2 tiene el potencial de agilizar y acelerar significativamente estas tareas. La integración con herramientas como Adobe Premiere y DaVinci Resolve podría convertir a SAM 2 en un activo valioso para los creadores de contenido.
En general, el Modelo de Segmentación de Cualquier Cosa 2 de Meta representa un paso importante adelante en las capacidades de visión por computadora y procesamiento de imágenes y videos. A medida que la IA continúe evolucionando, podemos esperar ver aún más hazañas impresionantes de comprensión y manipulación visual en un futuro cercano.
Programa de editores de Perplexity
Programa de editores de Perplexity
Perplexity, el motor de búsqueda impulsado por IA, ha anunciado el Programa de Editores de Perplexity. Este programa tiene como objetivo compartir los ingresos con socios específicos cuyo contenido se utiliza como fuente de noticias en la plataforma Perplexity.
El lote inicial de socios incluidos en este programa son:
- Time
- Der Spiegel
- Fortune
- Entrepreneur
- The Texas Tribune
- WordPress.com
Si bien este programa actualmente solo incluye a editores más grandes, Perplexity ha expresado la esperanza de que en el futuro pueda incentivar a los blogueros y creadores de contenido normales a licenciar su contenido a la plataforma también. Sin embargo, por ahora, el Programa de Editores de Perplexity se centra en organizaciones de noticias establecidas.
El objetivo de este programa es proporcionar una forma para que Perplexity comparta los ingresos generados por el uso del contenido de los socios, en lugar de simplemente agregarlo y mostrarlo sin compensación. Esto representa un esfuerzo de Perplexity por construir relaciones mutuamente beneficiosas con los creadores de contenido cuyo trabajo se destaca en su plataforma.
Leonardo AI adquirido por Canva
Leonardo AI adquirido por Canva
Esta semana, la gran noticia es que Leonardo AI, una de las principales herramientas de generación de imágenes por IA, ha sido adquirida por la plataforma de diseño Canva. Este es un desarrollo significativo por varias razones:
- Integración con Canva: Con Leonardo AI ahora como parte
Preguntas más frecuentes
Preguntas más frecuentes