31 luglio, 2024

Tutto per l'intelligenza artificiale o per le fogne? Quando l'IA degenera

Uno studio mostra che l’addestramento di un modello di intelligenza artificiale con dati generati dall’intelligenza artificiale provoca il degrado delle generazioni successive del modello al punto da renderlo privo di senso. 
 
Questo lavoro è finito sulla prima pagina della rivista “Nature”. Una testa stilizzata di robot appare sulla prima pagina dell'edizione del 25 luglio di Nature

Vomita un ruscello verde pieno di robot che sembrano auto-replicarsi e affogare nei propri rigurgiti. Una mise en abisso che simboleggia il rischio rappresentato dall’addestramento di sempre più numerosi strumenti di intelligenza artificiale generativa a partire dai dati stessi generati dall’AI. 

La rivista scientifica britannica ha scelto di mettere in risalto il lavoro di Ilia Shumailov, ricercatore dell'Università di Oxford, e colleghi. 
Pubblicati il ​​24 luglio sul sito web della rivista, dimostrano che l'addestramento di un modello di intelligenza artificiale LLM (Large Language Model) con dati generati dall'intelligenza artificiale ha causato il degrado delle generazioni successive del modello, fino al punto del collasso. 

Ad esempio, riporta Nature, “un testo sull’architettura medievale è servito come punto di partenza per uno dei test, ma alla nona iterazione, il modello ha prodotto un elenco di specie di lepre”. 

In un articolo divulgativo, la rivista specifica inoltre che “secondo l’analisi matematica, questo problema del collasso del modello è senza dubbio universale e potrebbe colpire modelli linguistici di tutte le dimensioni, anche semplici generatori di immagini e altri tipi di intelligenza artificiale, purché utilizzino dati non ordinati”. 

Tuttavia, “questo problema del collasso non segnala la fine dei grandi modelli linguistici, ma significa che il loro costo aumenterà”, procrastina il ricercatore. 

Chi ha questa raccomandazione:
Gli sviluppatori devono trovare trucchi, come il watermarking, per distinguere i dati reali da quelli generati dall’intelligenza artificiale, il che richiederebbe un coordinamento senza precedenti tra i giganti digitali”. 

E Nature aggiunge: “Potrebbe essere necessario creare incentivi affinché i creatori umani continuino a produrre contenuti”.

Nessun commento: