Sora, l'intelligenza artificiale di ChatGpt crea anche video realistici

OpenAI ha sviluppato "Sora", un avanzato software di intelligenza artificiale capace di creare video realistici di un minuto seguendo istruzioni testuali....

OFFERTA SPECIALE

2 ANNI
159,98€
40€
Per 2 anni
SCEGLI ORA
OFFERTA MIGLIORE
ANNUALE
79,99€
19€
Per 1 anno
SCEGLI ORA
 
MENSILE
6,99€
1€ AL MESE
Per 6 mesi
SCEGLI ORA

OFFERTA SPECIALE

OFFERTA SPECIALE
MENSILE
6,99€
1€ AL MESE
Per 6 mesi
SCEGLI ORA
ANNUALE
79,99€
11,99€
Per 1 anno
SCEGLI ORA
2 ANNI
159,98€
29€
Per 2 anni
SCEGLI ORA
OFFERTA SPECIALE

Tutto il sito - Mese

6,99€ 1 € al mese x 12 mesi

Poi solo 4,99€ invece di 6,99€/mese

oppure
1€ al mese per 6 mesi

Tutto il sito - Anno

79,99€ 9,99 € per 1 anno

Poi solo 49,99€ invece di 79,99€/anno
OpenAI ha sviluppato "Sora", un avanzato software di intelligenza artificiale capace di creare video realistici di un minuto seguendo istruzioni testuali. L'entusiasmo degli addetti ai lavori e del pubblico in generale è notevole ma, in realtà, si nascondono dubbi e paure dietro questo annuncio. "Sora" e simili tecnologie, infatti, sollevano preoccupazioni riguardo alla disinformazione, specialmente in contesti come le elezioni politiche. Per affrontare questi rischi, aziende tecnologiche e editoriali (Google, Meta e Adobe per esempio) hanno formato un consorzio, la Coalition for Content Provenance and Authenticity (C2PA), per stabilire standard comuni per verificare i contenuti generati dall'intelligenza artificiale, inclusa l'implementazione di una "filigrana digitale" per tracciare la provenienza dei contenuti. QResta da capire se gli standard di etichettatura che individuerà questo consorzio è inviolabile. «Si basa sull'incorporamento dei metadati di file digitali che possono essere rimossi o scambiati da malintenzionati - ha detto al sito Axios Matt Medved, fondatore di NowMedia - solo il registro immutabile della blockchain può certificare la provenienza dei contenuti».
Leggi l'articolo completo su
Il Messaggero