Non solo gli algoritmi perpetuano i nostri pregiudizi, ma il modo in cui vengono "addestrati" non garantisce che funzioneranno bene nella "vita reale".
Il generatore di testo GPT-3 può anche scrivere articoli chiari e argomentati, con una performance che farà invidia ai blogger più prolifici, non è però emblematico di ciò che promette l'intelligenza artificiale (IA).
Sebbene faccia continuamente progressi, non è ancora completamente sviluppato, specialmente quando si tratta di prendere decisioni "buone" per gli esseri umani.
In primo luogo, i dati utilizzati per addestrare l'IA riflettono e perpetuano solo i nostri pregiudizi e le carenze delle organizzazioni esistenti.
Ma, osserva il Boston Globe: "anche in assenza di pregiudizi sistematici di classe o razziali, gli algoritmi potrebbero avere difficoltà a fare previsioni anche vagamente accurate sul futuro degli individui".
In ogni caso, questo è evidenziato da diverse pubblicazioni scientifiche. La più recente (Underspecification Presents Challenges for Credibility in Modern Machine Learning), condotta da 40 ricercatori di diversi servizi Google, indica una causa del fallimento dei modelli di machine learning: la “sotto-specifica”, un problema noto nelle statistiche, dove gli effetti osservati possono avere molti effetti. Cause possibili.
In altre parole, il processo utilizzato per creare la maggior parte di questi modelli non garantisce che funzioneranno nel mondo reale.
Questo è un problema.
Nessun commento:
Posta un commento