Xai attribuisce l’assedio del Groch di “Genocidio bianco” all’emendamento non autorizzato

Il modello Bug AI nel droghiere di chatbot del social network è causato da un cambiamento non ufficiale. Il bug ha cambiato le risposte fornite dalla barca con la tendenza a impegnarsi con la “carneficina bianca” in Sudafrica. Il modello ha inviato le risposte con il tema, nulla negli aspetti di conversazione, ma in alcuni casi attivato, sviluppato Crunch tecnologico.
N / a Mercoledì scorso, quando richiesto per varie domande, Bot ha iniziato a rispondere con le informazioni di carneficina a dozzine di posti X. Sul social network X, è possibile chiedere al Grok di commentare l’argomento dei post, attivando la funzione @GOK.
Nel resoconto ufficiale di XAI, la sezione operativa del modello di intelligenza artificiale del droghiere Spiegato Ha ricevuto una modifica non autorizzata nel Prompt di Respon sul sistema X. Questo cambiamento ha fornito una risposta specifica sugli aspetti politici, violando le politiche interne e i valori delle radici di Xai. “Abbiamo condotto un’indagine più profonda e stiamo implementando azioni per migliorare la trasparenza e la fiducia di Grok.
In questo senso, xai D’ora in poi, ti impegni a pubblicare pubblicamente il tuo sistema rapido in GitHub. “Le persone possono analizzare tutte le modifiche nella prompt che facciamo al Groch e diamo un feedback. Speriamo che aiuti a rafforzare la tua fiducia nel Groch, che è sempre l’IA che vuole la verità. “
La Società afferma che l’attuale processo di revisione del codice è sfuggito per rapide modifiche all’incidente. E aggiungere ulteriori controlli e misure per garantire che i dipendenti XAI non possano modificare il prompt senza revisione. “Metti il team di monitoraggio 24/7 24/7 per rispondere agli eventi che si sono verificati con risposte al droghe che non si trovano nei sistemi automatizzati in modo da poter rispondere rapidamente se altre misure falliscono. “.