Home Affari Vettore satellitare multiplo in orbita intorno alla terra

Vettore satellitare multiplo in orbita intorno alla terra

8
0

Per garantire il dominio americano: le aziende di intelligenza artificiale sono lontane da impegni di sicurezza

“Le aziende da corsa che stanno correndo per controllare il futuro dell’intelligenza artificiale sono i loro metodi e funzionano attentamente per il tuo follow -up e attraverso i tuoi dati. Ma non vuole seguirla, e in particolare gli utenti non vogliono seguire le loro responsabilità morali e la privacy volontaria – alcune garanzie volte a mantenere il futuro dell’intelligenza artificiale.

.

Il dominio americano rompe gli ostacoli di sicurezza

Mentre l’amministrazione instancabile del presidente Trump vuole smantellare gli ostacoli alla sicurezza per aumentare il “dominio americano” nel campo dell’intelligenza artificiale e demolire i suoi team di sicurezza, queste aziende hanno la responsabilità di un piccolo profitto nel campo su come rivedere trilioni di dollari nelle loro politiche e adempiere alle loro responsabilità morali.

Un progetto 16 supervisiona le principali organizzazioni

Tyler Johnston e il suo team, The Midas Project, sono diventati l ‘”amministrazione antincendio” digitale, che funziona da solo nel tentativo di monitorare i “potenziali incendi”. Il progetto “AI Safe Watchtower” è stato lanciato tra il progetto -2024 e ora segue 16 società, tra cui “opig” e “antropico” per monitorare centinaia di documenti politici e pagine Web per eventuali cambiamenti nel suo lavoro.

“Se ogni azienda di intelligenza artificiale cambia, questo lavoro non è richiesto”, ha detto Johnston. Invece, rappresenta un molto trasparente. Invece, le organizzazioni non profit e i giornalisti sono responsabili del monitoraggio e che nessuno ha attrezzature adeguate per catturare tutto. “

Eliminare gli standard di sicurezza e responsabilità dell’intelligenza artificiale

Le preoccupazioni di Johnston per le sue responsabilità di sicurezza stanno arrivando mentre l’amministrazione Trump sta lavorando attivamente per demolire le barriere di sicurezza dell’intelligenza artificiale. Nel suo secondo giorno, nel suo secondo giorno, Trump ha firmato un ordine esecutivo per annullare la direzione sulla sicurezza dell’ex presidente Biden per la sicurezza dell’intelligenza artificiale per il 2023 e ha sostituito con particolare attenzione al “dominio americano” nel campo dell’intelligenza artificiale. A marzo, il National Institute for Standards and Technology Institute of Artificial Intelligence ha emesso nuovi ordini agli scienziati, in cui è stata eliminata la parola “intelligenza artificiale, responsabilità e equità dell’intelligenza artificiale”.

Sebbene vari stati abbiano preso provvedimenti per accettare i regolamenti dell’intelligenza artificiale, i progetti di legge sono stati presentati al Congresso degli Stati Uniti, non esistono regole federali per utilizzare questa tecnologia separatamente. Nelle ultime settimane, il presidente Trump ha richiesto i commenti delle persone da aziende, accademici e altri sul prossimo “piano d’azione AI” sul prossimo “Piano d’azione AI”. Non sorprende che la Silicon Valley sia richiesta un tattile organizzativo semplificato.

Con circa 1500 follower attraverso due account in X, Johnston gestisce il progetto MIDAS per intero. Il gruppo è mantenuto da un budget limitato, quindi attualmente gestisce molti affari con l’aiuto di alcuni volontari.

Johnston non supporta miliardi di dollari dal capitale di investimento o dal finanziamento del governo e dipende solo dai dati su Internet che raccolgono i dati su Internet quando le aziende calmano le loro promesse in modo da non costruire robot minacciosi o avviare lo sviluppo di armi biologiche.

Monitora 30 cambiamenti nei criteri

Ad oggi, la “torre di monitoraggio” ha documentato 30 cambiamenti significativi, che sono stati classificati con tag: Presidente, non dichiarati leggermente e non dichiarati. Il primo è stato nell’ottobre 2023 che il “leggero” emendamento apportato sull’eye “Oben Eye” “Oben Eye” “Oben Eye” “Oben Eye” – che ha eliminato il principio delle direzioni “Impact -Drive” per l’intelligenza artificiale, che era “interessata agli effetti reali” (per gli strumenti intelligenti) e “focalizzarsi sull’intelligenza Ezi focus”.

Nel giugno 2024, la società di intelligenza artificiale ha supervisionato un altro “leggero” cambiamento “nella società” Mita “, rendendo chiaro che i dati possono essere utilizzati da” Facebook “,” WhatsApp “e” Instagram “per cambiare il suo modello.

La torre di controllo ha indicato la modifica “principale” di “Google” il mese scorso, ha rilasciato una nuova versione del framework di sicurezza delle frontiere dell’azienda. L’analisi di Johnston rivela aggiustamenti inquietanti: il pericolo del modello è stato eliminato ed è stato sostituito da “perdite di compatibilità” che non sono chiaramente definite, e va notato che la società dovrebbe aggiungere la formulazione indicando che non seguirà il suo framework se non ci sono azioni simili.

A volte, le aziende hanno risposto agli avvertimenti di Johnston. Lo stato di questi obblighi nell’amministrazione Trump non è chiaro. Nell’era Biden sul mantenimento dei rischi dell’intelligenza artificiale e delle promesse indipendenti fatte dalla Casa Bianca e dalle persone per le persone, non dovrebbero essere influenzati dall’esecutivo di Trump, che elimina le procedure di offerta per l’intelligenza artificiale.

La maggior parte delle aziende, tra cui “Nevia” e altri, hanno confermato che dopo le elezioni e il sito Web “Fedsup”, “Antourobic” è tornato al suo sito Web, aggiungendo un’evacuazione di una responsabilità interessante: “Sebbene queste responsabilità specifiche non siano ufficialmente valide nell’amministrazione del presidente Trump.

Le compagnie si ritirano: entrare nel settore militare

Il cambiamento più importante nel documento Johnston è che le compagnie di intelligenza artificiale stanno rifiutando di entrare nell’esercito dalle loro posizioni precedenti. Secondo Johnston, il ritiro “Oben Eye” è stato calcolato in particolare: è stato progettato per aiutare i vecchi guerrieri a prevenire il suicidio dei vecchi guerrieri e per sostenere la sicurezza informatica per il Pentagono. La compagnia ha descritto i critici con la crudeltà del cuore di mettere in discussione questo lavoro, ma a novembre 2024, Opena aveva droni a guida autonoma e Johnston lo ha descritto come una strategia tradizionale per entrare nel campo. Google ha adottato il suo esempio all’inizio di quest’anno in quanto ha annullato le sue sanzioni per lavorare nell’esercito.

“Molti di loro hanno davvero iniziato a godere della coscienza dell’intelligenza artificiale del mondo”, ha detto Johnston. Dicono: Beh, lo facciamo perché se non lavoriamo con gli eserciti, gli attori meno accurati (da noi) lo fanno. “

Posizioni morali riformate

La trasformazione militare è solo un esempio di come le compagnie di intelligenza artificiale ripristinano le loro posizioni morali. Oben Eye ha recentemente pubblicato un documento che definisce la sua filosofia sull’integrità dell’intelligenza artificiale, che ha gradualmente superato il sistema “editoriale graduale” nel 2019 con GPT -2 nel 2019.

La rottura degli impegni

I cambiamenti hanno superato le regole e le politiche delle aziende. Lo scorso febbraio, il team di Johnston “Seoul Tracker” ha iniziato a valutare l’impegno delle società al vertice sulla sicurezza dell’intelligenza artificiale del 2024 a Seoul. Risultati deludenti: molti hanno ignorato la scadenza fissata a febbraio per adottare politiche di espansione responsabili, mentre altri non usano le politiche vuote sullo stesso con ciò che hanno promesso.

L’uso di un sistema di valutazione basato sul grado basato sulle prove generali di implementazione in cinque principali aree di impegno, garantisce la società “antropica” al massimo grado, che garantisce il massimo grado, tra cui B -, “IBM”, “IBM” e “Mistrol AI”, tra cui “IBM” e “Mistrul AI”.

Johnston dice: “Questa è una cosa strana per me”, dice Johnston. Questi non sono solo su alcune pagine Web, ma anche per il Regno Unito e la Corea del Sud.

Sostenitori e interessi dell’ostilità

L’impatto del lavoro di Johnston mostra attenzione su di esso. Le compagnie di intelligenza artificiale stanno lottando per ottenere 500 firme su petizioni che richiedono la sicurezza di essere prese sul serio e il numero di seguaci è ancora umile, molti di questi seguaci sono famosi e informati.

Uno dei consulenti di Trump alla Casa Bianca per l’IA ha finalmente seguito questo account. Ha spinto Johnston a chiedere se i funzionari del governo avrebbero visto queste battute d’arresto morale come progresso. Dice: “Sono molto preoccupato che lo stia seguendo mentre incoraggia se stesso e queste aziende sequestrano i risultati dei cambiamenti e il successo di queste aziende”.

* Servizi Fast Combani, Servizi “Tribune Media”

Source link