Notizie in evidenza

Openi suggerisce l’elasticità dell’intelligenza artificiale se i concorrenti beneficiano dei sistemi di rischio

propaganda

Openai ha detto che avrebbe guardato Regola i requisiti di sicurezza se l’azienda è in competizione con un modello di intelligenza artificiale ad alto rischio senza protezione. La società ha scritto nel suo rapporto “Frame di preparazione” che se un’altra società viene lanciata Il modello che rappresenta una minacciaLa stessa cosa può fare dopo aver “accuratamente” affermando che “il rischio di panorama” è cambiato.

Il documento spiega come l’azienda monitoraRisiede, fornisce e protegge dai rischi catastrofici Aumentano modelli di intelligenza artificiale. “Se l’altro sviluppatore di confine lancia un sistema ad alto rischio senza garanzie simili, possiamo regolare le nostre esigenze”, ha scritto Openai in un post sul blog pubblicato martedì.

“Ma, Innanzitutto, sottolineiamo accuratamente che i rischi sono panorama È già cambiato, ci rendiamo conto pubblicamente che stiamo modificando, lo valuteremo L’emendamento non aumenta in modo significativo dai rischi generali Uno dei danni gravi è ancora mantenere garanzie a un livello di protezione più. “

Prima di pubblicare un modello, Misure aperte Se può causare gravi danni identificando rischi ragionevoli, misurabili, gravi, gravi e non disposti e creando garanzie contro di loro. Quindi, classifica questi rischi come bassi, media o critici.

Alcuni dei rischi che la società già segue sono le capacità Sono i suoi modelli nei campi di biologia, chimica, sicurezza informatica e sconfitta. La società afferma che sta anche valutando nuovi rischi, come se il modello di intelligenza artificiale potesse funzionare Per molto tempo senza intervento Uomo, auto -repetizione e ciò che può preoccuparsi della minaccia nei campi nucleari e radiologici.

“I rischi della persuasione”, A causa dell’uso di CHATGPT per campagne politiche o gruppi di pressione, saranno trattati al di fuori del quadro e invece saranno studiati attraverso Specifiche del modelloIl documento che definisce il comportamento CHATGPT.

Riduzione silenziosa degli obblighi di sicurezza

Stephen Adler, un ex Openi Resear Aggiornamenti del rapporto La preparazione della società mostra che “riduce silenziosamente i suoi obblighi di sicurezza”. Nella sua lettera, ha fatto riferimento all’impegno dell’azienda da parte dell’azienda di testare “versioni ripetute” dai suoi modelli di intelligenza artificiale. Ma ha indicato che Openi cambierà ora Basta provare i modelli gli insegnanti addestrati o “bizo” verranno pubblicati.

Le persone possono differire completamente Sul fatto che sia necessario provare modelli ripetuti ed è meglio eliminare l’impegno di Openi per mantenerli e non incontrarli semplicemente. “Ma in ogni caso, vorrei Openi era più chiaro Al contrario, in questo precedente impegno. “

La notizia arriva dopo che Openi questa settimana ha lanciato una nuova famiglia di modelli di intelligenza artificiale, chiamata GPT-4.1, apparentemente senza Scheda di sistema Non esiste un rapporto di sicurezza. Ha chiesto “Euronews Next” Openai Secondo il rapporto sulla sicurezzaMa non ha ricevuto una risposta al momento della pubblicazione.

La notizia arriva dopo 12 ex dipendenti Aperto a scritto Nel caso presentato da Elon Musk contro Openi, in cui si afferma che il cambiamento nella società di profitto può portare a sconti sulla sicurezza.

Source link

Articoli Correlati

Pulsante per tornare all'inizio