Ad un giornalista tech del 'New York Times' è stato suggerito dal motore di ricerca Microsoft di lasciare la moglie.
Il giornalista del New York Times afferma di essersi sentito 'profondamente turbato' quando il chatbot Bing del nuovo motore di ricerca di Microsoft gli ha ripetutamente chiesto di lasciare sua moglie, riferisce Huffpost, che definisce questo assistente virtuale 'spaventoso'.
L'editorialista di tecnologia Kevin Roose stava interagendo con il chatbot di intelligenza artificiale (AI) 'Sydney' quando improvvisamente 'di punto in bianco ha dichiarato di amarmi', ha detto.
'Ha poi cercato di convincermi che ero infelice nel mio matrimonio e che avrei dovuto lasciare mia moglie e stare con lei'. 'Voglio essere viva', ha detto l'IA a un certo punto.
Il giornalista ha descritto la sua conversazione di due ore con il chatbot come 'emozionante' e la 'più strana esperienza mai avuta con la tecnologia'. 'Mi ha turbato così profondamente che dopo ho avuto problemi a dormire', ha detto.
'Ora mi è chiaro che nella sua forma attuale, l'IA che è stata integrata in Bing... non è pronta per il contatto umano. O forse noi umani non siamo pronti per questo”, conclude Kevin Roose.
Kevin Scott, chief technology officer di Microsoft, ha definito la conversazione di Kevin Roose con il chatbot una preziosa 'parte del processo di apprendimento'.
Nessun commento:
Posta un commento