Notizie sull'IA: Una settimana intensa di progressi e sviluppi nell'IA

Scopri gli ultimi progressi e sviluppi dell'IA della scorsa settimana, inclusa la funzione vocale avanzata di OpenAI, le capacità di output prolungato di GPT-4, le rivendicazioni di competizione AI di Microsoft e gli aggiornamenti da Google, Anthropic, Meta e altro ancora. Rimani al passo con i tempi nel mondo in continua evoluzione dell'IA.

24 febbraio 2025

party-gif

Questo post del blog fornisce una panoramica completa degli ultimi progressi nel mondo dell'AI, coprendo una vasta gamma di argomenti, dalle nuove funzionalità vocali in ChatGPT di OpenAI all'acquisizione di Leonardo AI da parte di Canva. I lettori acquisiranno informazioni sul rapidamente evolversi panorama dell'AI e sugli entusiasmanti sviluppi che stanno plasmando il futuro di questa tecnologia.

Funzione vocale avanzata di Open AI

Open AI ha iniziato a distribuire una funzione vocale avanzata a un numero limitato di utenti. Questa nuova funzione consente agli utenti di generare voci simili agli umani, inclusa la possibilità di imitare voci come quella di Scarlett Johansson.

Alcuni punti salienti della modalità vocale avanzata:

  • Gli utenti con accesso possono provare l'opzione "Modalità vocale avanzata" in fondo alla finestra di chat.
  • Può generare voci molto realistiche, inclusa la possibilità di imitare le voci di celebrità e personaggi pubblici.
  • Gli utenti possono interrompere la voce mentre sta parlando, una funzione non disponibile nell'app standard di chat GPT.
  • Le demo mostrano che il modello vocale può contare molto velocemente, simulando anche la necessità di prendere fiato.

Tuttavia, questa funzione vocale avanzata è attualmente disponibile solo per un numero limitato di utenti. La maggior parte delle persone non ha ancora accesso per provarla.

Uscita lunga di GPT-4

Open AI ha recentemente distribuito una versione sperimentale di GPT-4 chiamata "GPT-4 Long Output". Questo nuovo modello ha un output massimo di 64.000 token per richiesta, consentendo risposte molto più lunghe e dettagliate rispetto al modello GPT-4 standard.

Il modello GPT-4 Long Output è attualmente disponibile solo per un gruppo selezionato di partecipanti Alpha e non è ancora accessibile al pubblico in generale. Questa versione sperimentale è progettata per fornire agli utenti la possibilità di generare output estremamente lunghi e completi in risposta alle loro query.

Sebbene i dettagli dell'architettura del modello e del processo di addestramento non siano stati resi pubblici, l'aumento della lunghezza dell'output è probabilmente ottenuto attraverso progressi nelle capacità di memoria e ragionamento del modello. Ciò consente al modello di mantenere il contesto e la coerenza su uno span di testo molto più lungo, consentendogli di fornire risposte più dettagliate e approfondite.

Le potenziali applicazioni del modello GPT-4 Long Output sono vaste, che vanno da compiti di ricerca ed analisi estesi alla generazione di contenuti di lunga durata come relazioni, saggi o persino libri. Tuttavia, come per qualsiasi potente tecnologia AI, ci sono anche preoccupazioni riguardo al potenziale abuso o alle conseguenze indesiderate di un tale modello.

Open AI ha dichiarato di stare lavorando a stretto contatto con gli organi di regolamentazione e altri stakeholder per garantire lo sviluppo e la distribuzione responsabile del modello GPT-4 Long Output. Ciò include l'implementazione di salvaguardie e linee guida per prevenire l'uso del modello per scopi dannosi o non etici.

Complessivamente, il rilascio del modello GPT-4 Long Output rappresenta una tappa significativa nell'avanzamento dei grandi modelli linguistici e nella loro capacità di impegnarsi in forme di comunicazione e elaborazione delle informazioni più complesse e sfumata. Man mano che la tecnologia continua a evolversi, sarà fondamentale per ricercatori, responsabili politici e il pubblico monitorarne attentamente lo sviluppo e l'impatto.

Open AI come concorrente di Microsoft

Questa settimana, Microsoft sta ora affermando che Open AI è un concorrente nell'AI e nella ricerca. Questo è interessante perché Microsoft ha investito famosamente 13 miliardi di dollari in Open AI e possiede il 49% della società.

Nei loro rapporti finanziari, Microsoft ha elencato società come Anthropic, Open AI, Meta e altre offerte open-source come concorrenti per le loro offerte di IA. Questo è strano da vedere, poiché Open AI è posseduta al 49% da Microsoft e hanno anche accordi di partnership con Meta.

Sembra che Microsoft stia ora vedendo Open AI come un concorrente per il proprio business di ricerca e pubblicità di notizie, anche se hanno una partecipazione importante nella società. Questa è una dinamica molto interessante che si è sviluppata tra le due società.

Approvazione di Open AI alla regolamentazione dell'IA

Open AI questa settimana ha approvato alcuni disegni di legge del Senato relativi alla regolamentazione e alla sicurezza dell'IA. Questo include il Future of AI Innovation Act, che autorizzerebbe formalmente l'United States AI Safety Institute come organismo federale per stabilire standard e linee guida per i modelli di IA.

Open AI ha inoltre approvato l'NSF AI Education Act e il CREATE AI Act, che forniscono borse di studio federali per la ricerca sull'IA e istituiscono risorse educative sull'IA all'interno di college e scuole K-12.

Queste approvazioni da parte di Open AI servono probabilmente ad aiutare l'azienda ad avere un posto al tavolo nelle future conversazioni sulla regolamentazione dell'IA. In quanto importante azienda di IA, Open AI è un candidato probabile ad affrontare un controllo normativo in futuro. Approvando questi disegni di legge, Open AI può contribuire a orientare la direzione della regolamentazione e garantire che i suoi interessi siano rappresentati.

Inoltre, Open AI si è impegnata a fornire all'US AI Safety Institute un accesso anticipato al suo prossimo modello. Questo sembra essere uno sforzo per contrastare la narrativa secondo cui Open AI ha dato la priorità alla creazione di IA generativa più potente rispetto alla sicurezza dell'IA.

Complessivamente, le mosse di Open AI suggeriscono che l'azienda sta lavorando per avvicinarsi al governo degli Stati Uniti e posizionarsi come un attore chiave nello sviluppo della regolamentazione e degli standard di sicurezza dell'IA.

Anthropic lancia Claud in Brasile

Buone notizie per chi si trova in Brasile - Anthropic ha lanciato il suo assistente IA Claud nel paese questa settimana. Claud è ora disponibile per gli utenti in Brasile per accedervi e interagire con esso.

Google Gemini 1.5 Pro e altri modelli di IA

Google ha anche fatto grandi onde nel mondo dell'IA questa settimana. Hanno rilasciato una nuova versione di Gemini 1.5 Pro, chiamandola versione 0801 che è disponibile per l'uso ora all'interno di Google's AI Studio.

Per accedervi, puoi andare su AI Studio .g google.com e sotto il menu a discesa "Model", vedrai "Gemini 1.5 Pro experimental 0801" - è questo il modello che vuoi utilizzare.

Quando si chatta con questo nuovo modello Gemini 1.5 Pro, ha superato la classifica su lm.org, superando persino GPT-4, GPT-4 Mini, CLAE 3.5 e Sonet.

Google ha anche rilasciato una nuova versione più piccola del loro modello Gemini 2 questa settimana - un modello da 2 miliardi di parametri costruito per prestazioni e efficienza più veloci, probabilmente per dispositivi mobili. Interessante, questo modello da 2 miliardi di parametri supera modelli molto più grandi come Mixdral 8X 7B, GPT-3.5 Turbo e LLaMA 2 70 miliardi.

Oltre ai nuovi modelli Gemini, Google ha aggiunto alcune nuove funzionalità IA impressionanti a Chrome questa settimana, tra cui l'integrazione di Google Lens che può identificare e cercare oggetti nelle immagini, e una nuova funzione di confronto che può confrontare prodotti tra siti web diversi.

Complessivamente, Google ha spinto i confini dei grandi modelli linguistici e delle capacità IA in Chrome, dimostrando la loro continua innovazione e leadership nel campo dell'IA.

Nuove funzionalità IA di Google Chrome

Questa settimana, Google ha aggiunto alcune nuove funzionalità alimentate dall'IA al suo browser Chrome:

  1. Google Lens nel desktop di Chrome: Ora puoi utilizzare Google Lens per cercare informazioni su oggetti nelle immagini direttamente dal browser Chrome. Basta selezionare un'area dell'immagine e Lens cercherà prodotti simili o identificherà l'oggetto.

  2. Confronto di prodotti: Chrome ora ha una funzione integrata che ti consente di confrontare prodotti tra schede e siti web diversi. Questo semplifica la ricerca e il confronto di articoli senza dover passare da una scheda all'altra.

  3. Cronologia di ricerca in linguaggio naturale: Ora puoi utilizzare il linguaggio naturale per cercare nella tua cronologia di navigazione in Chrome. Ad esempio, puoi chiedere "Qual era il negozio di gelati che ho guardato la scorsa settimana?" e Chrome mostrerà le informazioni pertinenti dalla tua cronologia di ricerca.

Queste nuove funzionalità alimentate dall'IA in Chrome dimostrano gli sforzi continui di Google per integrare capacità intelligenti direttamente nei suoi prodotti e servizi principali. Sfruttando tecnologie come la visione artificiale e l'elaborazione del linguaggio naturale, Google sta rendendo più facile per gli utenti trovare informazioni, confrontare prodotti e navigare nella loro cronologia di navigazione - tutto senza uscire dal browser Chrome. Man mano che l'IA continua a progredire, possiamo aspettarci di vedere sempre più di questo tipo di funzionalità intelligenti diventare comuni in tutta la suite di strumenti e applicazioni di Google.

Meta uccide le chatbot IA e apre un nuovo studio di IA

Questa settimana, Meta ha eliminato una delle funzionalità che aveva annunciato all'ultimo Meta Connect. Avevano mostrato chatbot IA che assomigliavano a persone famose, ma non erano i chatbot reali di quelle persone famose - usavano solo il loro volto ma erano addestrati su informazioni diverse. Tuttavia, a nessuno è piaciuto molto, quindi Meta se ne è sbarazzata.

Ma l'hanno sostituita con qualcos'altro - ora chiunque può creare la propria IA personalizzata. Meta ha lanciato uno Studio IA e uno dei miei amici, Don Allen Stevenson, è una delle persone che ha avuto accesso in anteprima.

Questa nuova funzionalità consente a chiunque di creare personaggi IA in base ai propri interessi. Puoi andare su ai.meta.com/AI-Studio e creare il tuo personaggio IA personalizzato, scegliendo opzioni come animale domestico IA, tutor privato, fan, artista creativo, sounding board, designer creativo, personal stylist e altro.

Il processo genera un'immagine del personaggio con l'IA, gli assegna un nome e un tagline, e poi puoi personalizzare ulteriormente e progettare ciò che vuoi che faccia questo IA. Al momento sembra un po' una novità, poiché non puoi facilmente importare grandi documenti o trascrizioni per consentire alle persone di chattare con una versione avatar IA di te. Ma è probabilmente dove stanno cercando di portare questa funzionalità in futuro.

La cosa più impressionante che Meta ha lanciato questa settimana è il loro nuovo Segment Anything Model 2 (SAM 2). Si tratta di un modello in grado di segmentare determinate sezioni di un'immagine o di un video con una precisione impressionante, anche seguendo gli oggetti mentre si spostano. È un grande miglioramento rispetto ai modelli di segmentazione precedenti e potrebbe essere molto utile per attività di montaggio video come il rotoscoping. Puoi provare SAM 2 su sam2.metademolab.com.

Complessivamente, Meta continua a spingere i confini di ciò che è possibile con l'IA, anche se alcune delle sue funzionalità rivolte ai consumatori possono sembrare un po' gimmick al momento. Sarà interessante vedere come il loro Studio IA e gli strumenti di segmentazione evolveranno nel tempo.

Modello Segment Anything 2 di Meta

Meta ha rilasciato una nuova versione del suo Segment Anything Model, chiamata SAM 2. Questo modello aggiornato dimostra miglioramenti significativi nella sua capacità di segmentare accuratamente gli oggetti in immagini e video.

Alcune caratteristiche chiave di SAM 2 includono:

  • Migliorata capacità di tracciare gli oggetti attraverso l'occlusione - il modello può continuare a seguire un oggetto anche quando temporaneamente va dietro a un altro oggetto.
  • Accuratezza di segmentazione migliorata, consentendogli di delineare con maggiore precisione i confini degli oggetti rilevati.
  • Velocità di elaborazione più rapida, consentendo la segmentazione in tempo reale nelle applicazioni video.
  • Versatilità ampliata, con il modello in grado di segmentare una vasta gamma di oggetti, dalle persone agli animali fino a forme e strutture più complesse.

Le demo fornite da Meta mostrano le impressionanti capacità di SAM 2. Ad esempio, il modello può tracciare accuratamente uno skateboarder mentre si muove attraverso una scena, mantenendo la segmentazione anche quando lo skateboarder passa dietro a un albero. Allo stesso modo, può isolare e seguire più palline in un video, distinguendo ciascuna individualmente.

Questi progressi nella tecnologia di segmentazione hanno implicazioni entusiasmanti per il montaggio video, gli effetti visivi e altri flussi di lavoro di produzione multimediale. Automatizzando il noioso processo di rotoscoping, SAM 2 ha il potenziale per snellire e accelerare notevolmente questi compiti. L'integrazione con strumenti come Adobe Premiere e DaVinci Resolve potrebbe rendere SAM 2 un asset prezioso per i creatori di contenuti.

Complessivamente, il Segment Anything Model 2 di Meta rappresenta un passo significativo in avanti nelle capacità di visione artificiale ed elaborazione di immagini/video. Man mano che l'IA continua a evolversi, possiamo aspettarci di vedere ancora più impressionanti prodezze di comprensione e manipolazione visiva in un prossimo futuro.

Programma editori Perplexity

Perplexity, il motore di ricerca alimentato dall'IA, ha annunciato il Perplexity Publishers Program. Questo programma mira a condividere i ricavi con partner specifici il cui contenuto viene utilizzato come fonte di notizie sulla piattaforma Perplexity.

Il primo gruppo di partner inclusi in questo programma sono:

  • Time
  • Der Spiegel
  • Fortune
  • Entrepreneur
  • The Texas Tribune
  • WordPress.com

Sebbene questo programma includa attualmente solo editori più grandi, Perplexity ha espresso la speranza che in futuro sarà in grado di incentivare anche normali blogger e creatori di contenuti a concedere in licenza i loro contenuti alla piattaforma. Tuttavia, al momento, il Perplexity Publishers Program è concentrato sulle organizzazioni di notizie consolidate.

L'obiettivo di questo programma è fornire un modo per Perplexity di condividere i ricavi generati dall'utilizzo dei contenuti dei partner, anziché semplicemente aggregarli e visualizzarli senza compensazione. Questo rappresenta uno sforzo di Perplexity per costruire relazioni mutuamente vantaggiose con i creatori di contenuti il cui lavoro è presentato sulla sua piattaforma.

Leonardo AI acquisito da Canva

Questa settimana, la grande notizia è che Leonardo AI, uno degli strumenti di gener

FAQ