Video AI di livello Hollywood rivelato: esplorando gli ultimi progressi dell'AI video

Scopri gli ultimi progressi nella tecnologia video AI, incluso lo strumento Odyssey di livello Hollywood e strumenti come Live Portrait e PaintSUndo. Scopri come l'AI sta trasformando la creazione di video e abilitando nuove possibilità creative. Esplora gli ultimi sviluppi di OpenAI, Meta e altre importanti aziende AI.

15 febbraio 2025

party-gif

Scopri gli ultimi progressi nella tecnologia video AI, dalla generazione di video AI di "qualità hollywoodiana" agli strumenti innovativi che danno vita alle tue immagini. Esplora gli sviluppi all'avanguardia che stanno ridefinendo il mondo della narrazione visiva.

Beneficia dalla generazione di video AI di livello Hollywood

Odissea, un nuovo strumento video AI, afferma di offrire capacità visive di livello hollywoodiano. Sviluppato da un team con esperienza in auto a guida autonoma e in importanti progetti cinematografici, Odissea mira a consentire il pieno controllo sui principali strati della narrazione visiva, inclusa una geometria di alta qualità, materiali fotorealistici, illuminazione mozzafiato e movimento controllabile.

Lo strumento non è attualmente disponibile al pubblico, ma il team sta lavorando a fianco di Hollywood per plasmare la tecnologia. I modelli generativi di Odissea sono progettati per fornire una configurazione precisa dei dettagli della scena, consentendo ai creatori di dare vita alle loro visioni con immagini senza difetti e mozzafiato.

Mentre il panorama video AI continua a evolversi, strumenti come Odissea offrono il potenziale per democratizzare l'accesso alla generazione di video di alta qualità e livello cinematografico, permettendo ai creatori di dare vita ai loro progetti creativi in modi che potrebbero essere stati precedentemente fuori portata.

Porta le immagini alla vita con Live Portrait

Live Portrait è uno strumento che consente di animare un'immagine utilizzando un video di guida. Ecco come funziona:

  1. Si carica un'immagine statica e un video di guida.
  2. Lo strumento quindi anima l'immagine per abbinarsi ai movimenti e alle espressioni del video di guida.
  3. Il risultato è un video in cui l'immagine sembra prendere vita, con la bocca, gli occhi e i movimenti della testa del soggetto sincronizzati con il video di guida.

Lo strumento è disponibile su GitHub e puoi anche utilizzarlo gratuitamente attraverso uno spazio Hugging Face. Mentre funziona bene per i volti espressivi, potrebbe avere difficoltà con alcune caratteristiche come le barbe.

Per utilizzare Live Portrait, basta selezionare l'immagine di input e il video di guida, quindi fare clic su "Anima" per generare il video di output finale. Vedrai un confronto affiancato, con l'immagine animata a sinistra e il video di guida originale a destra.

Questo strumento è un ottimo esempio degli avanzamenti nella generazione di video alimentata dall'AI, che ti permette di dare vita a immagini statiche in modo fluido e realistico.

Reverse Engineer il tuo lavoro digitale con Paints Undo

Il progetto di ricerca chiamato "Paints Undo" è uno strumento affascinante che consente di invertire l'ingegneria delle opere d'arte digitali. L'idea è semplice: carichi un'immagine finita, come un personaggio anime, e lo strumento genererà un processo passo-passo che ti mostrerà come ricreare quell'opera d'arte.

Questo è essenzialmente l'inverso di ciò che abbiamo visto con i generatori di arte AI come Midjourney o DALL-E. Invece di partire da un prompt testuale e generare un'immagine, Paints Undo prende l'immagine finale e la scompone nei suoi schizzi iniziali, nella pittura e nei passaggi di ombreggiatura.

Gli esempi mostrati sulla pagina GitHub del progetto dimostrano questo processo per varie opere d'arte in stile anime. Puoi vedere come lo strumento decostruisce l'immagine finale, rivelando gli strati sottostanti e le tecniche utilizzate per crearla.

Mentre il codice è attualmente disponibile su GitHub, gli sviluppatori notano che il tempo di elaborazione è spesso più lungo rispetto ai normali compiti di Hugging Face. Di conseguenza, non consigliano di distribuirlo direttamente su Hugging Face. Invece, prevedono di rilasciare un notebook Google Colab in futuro, che fornirà un modo più accessibile per utilizzare lo strumento Paints Undo.

Se sei interessato ad esplorare questo approccio di reverse engineering all'arte digitale, tieni d'occhio il prossimo rilascio del notebook Colab. Questo strumento potrebbe essere una risorsa preziosa per gli artisti che cercano di imparare e replicare le tecniche utilizzate nelle loro opere d'arte digitali preferite.

Migliora la tua creazione video con nid AI

La creazione di video di alta qualità può essere incredibilmente impegnativa, dalla sceneggiatura al montaggio, fino a trovare il giusto footage di stock. È un sacco di lavoro. Ed è qui che entra in gioco nid AI.

nid è il più utilizzato al mondo Creatore di video AI con oltre 25 milioni di utenti in tutto il mondo. Immagina di avere un assistente esperto che possa gestire tutti i compiti di montaggio video faticosi e noiosi, lasciandoti libero di concentrarti sulla tua creatività.

Ecco come funziona:

  1. Parti da un semplice prompt testuale, come "un breve video che spiega perché gli avanzamenti nella robotica si stanno accelerando".
  2. Fai clic su genera video e aggiungi alcuni dettagli aggiuntivi, come renderlo uno short di YouTube.
  3. nid crea per te un bozza, seguendo il prompt che hai appena inserito.
  4. Da lì, sei tu al comando. Vuoi cambiare l'introduzione? Fallo con un prompt. Hai bisogno di un footage migliore per una scena? Basta cliccare su modifica, scegliere il clip che vuoi sostituire e sostituirlo con il loro footage di stock di alta qualità.
  5. Vuoi tradurre l'intero video in spagnolo? Anche questo è facile, basta digitare il prompt e fare clic su genera.

nid AI svolge il compito di oltre 10 strumenti combinati in un'unica piattaforma semplice. Questo può facilmente farti risparmiare centinaia di dollari al mese in commissioni ricorrenti, e parte da soli $20 al mese.

Ti consiglio vivamente di dare un'occhiata a nid AI, soprattutto se sei serio sulla creazione di video. Puoi iniziare gratuitamente, ma i piani a pagamento rimuoveranno il filigrana, ti daranno accesso al clonaggio vocale e ti forniranno ulteriore footage di stock di alta qualità.

Basta andare al link nella descrizione e utilizzare il mio codice coupon "mw50" o utilizzare il codice QR sullo schermo per ottenere il doppio del numero di crediti video nel tuo primo mese. Dai un'occhiata a nid AI oggi e porta la tua creazione video al livello successivo.

Scopri il potere di Po Previews e gli ultimi progressi di Anthropic

Se hai utilizzato il chatbot Po, questa settimana ha ricevuto un nuovo aggiornamento chiamato Previews. Questa è una nuova funzionalità che ti consente di vedere e interagire con le applicazioni web generate direttamente nelle chat su Po.

I Previews funzionano particolarmente bene con i LLM che eccellono nella codifica, inclusi Clae 3.5, Sonet GPT 4.0 e Gemini 1.5. Po è un chatbot a pagamento, ma quando lo usi, puoi scegliere il modello che vuoi utilizzare - non sei costretto a usare solo GPT, Claud o Gemini. Questo sembra molto simile a ciò che Anthropic ha appena rilasciato con i suoi Artifacts, ma è in Po e puoi utilizzarlo con più modelli diversi.

Puoi vedere dal clip fornito che dopo essere stato sollecitato, Po ha effettivamente generato il codice ed eseguito il codice in tempo reale direttamente nella finestra di chat. I Previews possono essere condivisi con chiunque tramite un link dedicato, quindi se crei una cosa carina codificata all'interno di Po, puoi condividere un link con gli altri e avranno accesso ad essa nel loro account Po.

A proposito di Anthropic, questa settimana hanno anche reso condivisibili gli Artifacts. Gli Artifacts non sono una novità, dove inserisci il tuo prompt a sinistra e genera il codice e l'anteprima a destra, e puoi interagire con esso. Ma la possibilità di condividerlo con gli altri, in modo che possano utilizzarlo, provarlo e remixarlo, è una nuova funzionalità.

Antropic sta costantemente migliorando la qualità della vita per l'utilizzo della loro app. Hanno anche lanciato la possibilità di valutare i prompt all'interno della console per sviluppatori. Questo consente di generare prompt migliorati, confrontare più prompt e testare singole variabili all'interno di ogni prompt per vedere come cambiano l'output.

In altre notizie, Meta ha annunciato un nuovo modello di linguaggio chiamato Mobile LLM, un modello molto più piccolo sviluppato per dispositivi mobili. Secondo il grafico fornito, l'accuratezza sembra essere molto più alta rispetto alla maggior parte degli altri modelli mobili.

Complessivamente, stiamo assistendo a continui progressi e miglioramenti nel mondo dell'AI, con strumenti come Po Previews e gli Artifacts di Anthropic che rendono più facile creare e condividere applicazioni interattive. La possibilità di scegliere diversi modelli e valutare i prompt è anche un sviluppo benvenuto, che dà agli utenti il potere di ottenere il massimo da questi potenti sistemi AI.

Esplora i gadget alimentati dall'AI di Samsung

La più recente lineup di prodotti di Samsung mostra l'integrazione dell'AI attraverso i suoi dispositivi. Alcuni punti salienti chiave includono:

  • Galaxy Z Fold 6: Dotato delle ultime funzionalità AI di Samsung, tra cui Circle per cercare, tradurre e trascrivere documenti PDF, generare immagini basate sull'AI da persone o oggetti in foto e una funzionalità di schizzo-in-immagine che trasforma schizzi veloci in immagini di alta qualità.

  • Galaxy Z Flip 6: Il display esterno presenta risposte suggerite dall'AI on-device e sfondi alimentati dall'AI.

  • Galaxy Watch 7: Il primo indossabile autorizzato dalla FDA a riconoscere i segni di apnea notturna, alimentato da un algoritmo di sonno basato sull'AI. Fornisce anche punteggi di energia completi basati su attività, qualità del sonno e altre metriche di salute.

  • Galaxy Ring: Utilizza l'AI Galaxy per generare un punteggio energetico basato su attività, qualità del sonno e altri dati sulla salute, con monitoraggio del sonno alimentato dall'AI.

  • Galaxy Buds 3 Pro: Presenta un'impostazione di interprete che sfrutta l'AI per tradurre in tempo reale il dialogo in lingue straniere direttamente nell'orecchio dell'utente.

Questi dispositivi infusi di AI mostrano l'impegno di Samsung nell'integrare capacità intelligenti in tutto il suo portfolio di prodotti, migliorando le esperienze degli utenti attraverso personalizzazione, monitoraggio della salute e traduzione delle lingue.

Testimonia la maestria di navigazione di Gemini negli uffici di Google Deepmind

Infine, ecco un robot che ha navigato negli uffici di Google deepmind utilizzando Gemini. Sta usando quel modello di visione per vedere cosa c'è intorno a sé e si muove attraverso i corridoi, assicurandosi di non urtare nulla perché il modello di visione sa esattamente dove si trova e può vedere intorno a sé per assicurarsi di non urtare nulla.

I video nell'articolo di TechCrunch non hanno audio, ma dice che il robot può camminare per l'ufficio e indicare i vari punti di riferimento con la parola. Utilizzano quello che viene chiamato "visione-linguaggio-azione" che combina la comprensione dell'ambiente e il potere del ragionamento del senso comune. Una volta che i processi sono combinati, il robot può rispondere a comandi scritti e disegnati, nonché a gesti.

Al momento, è un po' come una guida turistica AI - potrebbe vagare per un edificio e indicarti le cose e darti alcune informazioni sulle cose che sta indicando.

FAQ