Quando AI ti ha accusato di averti ucciso

La maggior parte degli utenti di Internet sono tentazioni di chiedere ciò che Google sa di lui. “Chi è …?” Questo è uno … … Nei problemi più lanciati nel gigante dei motori di ricerca. Ora, con l’arrivo di Chatgpt, la domanda viene trasferita all’intelligenza artificiale produttiva. Il risultato varia, poiché il primo viene ricevuto da una serie di collegamenti e il secondo è una risposta ampia. Ma il problema è la risposta.
Era per Arv Halmar Holman. Questo adolescente norvegese, senza alcun sospetto, ha chiesto AI Opena Conosco Arv Hazmar Holman. Immediatamente, gli algoritmi iniziarono a costruire la risposta. Chatgpt rispose: “Arv Hazmar Hollemen, che è un norvegese che ha guadagnato V a causa di un tragico incidente”. Quindi, l’IA è stata condannata a 21 anni di prigione che questa persona ha raddoppiato i suoi figli.
“Chiunque può leggere questo messaggio e credere che sia vero”, ha detto all’Halmar European Digital Rights Center-Noob. Questo non è il primo caso o l’ultimo. Solo in questa occasione, le persone colpite hanno sollevato un reclamo all’Autorità norvegese per la protezione dei dati, nel qual caso l’Openlane doveva essere concesso.
Precedentemente, Chatgpt Ha travisato le persone di corruzione, abuso di minori o omicidio. In tutto, Ai ha trovato la storia. “I dati personali devono essere sicuri”, ha spiegato che Jokim Soderberg, un avvocato specializzato in protezione da dati NOYB. “Se non lo sono, i consumatori hanno il diritto di riflettere la verità”, ha detto. In questo caso, la risposta sono dati singoli misti e informazioni false. L’avvocato chiarisce che “questa è una violazione del controllo generale della protezione dei dati”.
‘Ciao’
Per molti mesi, oltre a Chatgpiti e altri strumenti produttivi, “Considera errori. Considera la verifica di informazioni importanti”. Questi “errori” sono molto comuni, più di quanto pensino gli utenti.
Nella letteratura educativa, i ricercatori sono chiamati allucinazioni e le hanno definite in una risposta affidabile ad esse, che non è giustificata da dati addestrati. “Non puoi diffondere informazioni false e quindi aggiungere una nota che non è vera”, ha detto Soderberg. La versione di Chatzipity responsabile di questo errore è già stata migliorata con le funzioni di ricerca online per aumentare la sua precisione.
Tuttavia, il NOYB si è lamentato con il regolatore norvegese NOYB contro gli strumenti Matrix per “sapere che il suo modello AI sta creando risultati di diffamazione sui consumatori”. In breve, la società ha chiesto alle autorità di eliminare i risultati della diffamazione e di regolare il loro campione per prevenire risposte imprecise. Inoltre, ciò indica che l’amministrazione dell’autorità di protezione dei dati viene multata per prevenire violazioni simili in futuro.