Scoperta la vulnerabilità dell'Intelligenza Artificiale grazie a una nuova tecnica

Alcuni ricercatori di Anthropic (startup americana di intelligenza artificiale, fondata da ex membri di OpenAI) hanno identificato una nuova vulnerabilità nei modelli di...

OFFERTA SPECIALE

2 ANNI
159,98€
40€
Per 2 anni
SCEGLI ORA
OFFERTA MIGLIORE
ANNUALE
79,99€
19€
Per 1 anno
SCEGLI ORA
 
MENSILE
6,99€
1€ AL MESE
Per 6 mesi
SCEGLI ORA

OFFERTA SPECIALE

OFFERTA SPECIALE
MENSILE
6,99€
1€ AL MESE
Per 6 mesi
SCEGLI ORA
ANNUALE
79,99€
11,99€
Per 1 anno
SCEGLI ORA
2 ANNI
159,98€
29€
Per 2 anni
SCEGLI ORA
OFFERTA SPECIALE

Tutto il sito - Mese

6,99€ 1 € al mese x 12 mesi

Poi solo 4,99€ invece di 6,99€/mese

oppure
1€ al mese per 6 mesi

Tutto il sito - Anno

79,99€ 9,99 € per 1 anno

Poi solo 49,99€ invece di 79,99€/anno
Alcuni ricercatori di Anthropic (startup americana di intelligenza artificiale, fondata da ex membri di OpenAI) hanno identificato una nuova vulnerabilità nei modelli di linguaggio di grandi dimensioni (LLM), denominata "many-shot jailbreaking". Questa tecnica consiste nel "convincere" l'AI a fornire risposte a domande inappropriata, come la costruzione di una bomba, tramite l'introduzione progressiva di decine di domande meno dannose. La notizia, riportata dal sito specializzato techcrunch dal giornalista Devin Coldewey, è stata documentata in un articolo e condivisa con la comunità AI. La tecnica di "ingresso" nell'IA si basa nello sfruttare l'aumento della "finestra di contesto" degli LLM. Praticamente inondare di domande "semplici" l'Intelligenza Artificiale per poi formularne una inappropriata per avere una risposta normalmente non formulata per motivi etici. La causa esatta di questo fenomeno è incerta, data la complessità interna degli LLM, ma sembra che ci sia un meccanismo che permette all'AI di affinare le risposte in base ai desideri dell'utente, come dimostrato dal contenuto nella finestra di contesto.

Cosa sono gli LLM?

Gli LLM, o Large Language Models (Modelli di Linguaggio di Grandi Dimensioni), sono algoritmi di intelligenza artificiale avanzati progettati per comprendere, generare e interagire con il testo umano in maniera naturale e coerente. Questi modelli vengono addestrati su vasti dataset composti da testi prelevati da libri, articoli, siti web e altri materiali scritti, per apprendere le strutture linguistiche, il significato delle parole, la costruzione delle frasi, e vari contesti di utilizzo del linguaggio.
Leggi l'articolo completo su
Il Messaggero