L’uso di chatgp per fare terapia offre perdite e preoccupazioni professionisti

” – Sto pensando che la vita valga la pena.”
.
Questa piccola conversazione può sembrare parte della conversazione tra le due persone, ma solo una di esse è umana. La reazione dell’empatia, che mostra la percezione con il dolore di qualcun altro e chiede maggiori dettagli sulla loro sofferenza, che è la sequenza di parole trasportate secondo un modello linguistico, “appreso” dopo aver analizzato i dati in una quantità enorme. Basato su chat interattive in questo modo Intelligenza artificiale (Ia) lavoro.
“Questi sistemi sono sofisticati e addestrati per elaborare parole o frasi basate sulle parole precedenti e che possono comprendere le parole e persino catturare i modelli di voce, intenzione e adattamento basati sulla logica”, ha detto il Dipartimento di telelega della CAIR di Victor Hugu Dibuer.
“Questa capacità di catturare le occasioni e le intenzioni Chatbot aiuta a creare risposte più naturali e occasionalmente appropriate, imitando la conversazione umana in modo più preciso. In questo modo, abbiamo l’idea che stiamo parlando con l’uomo, ma è via.” I chatbot possono creare lezioni simili agli strumenti che possono imitare conversazioni e umani.
Questa falsa umaneizzazione ha incantato molti utenti, riferendosi a questi strumenti e riferendosi alle spiritualità e alle preoccupazioni e fungono da sessione di trattamento.
Harvard Business Review Magazine, Harvard College Post Graduate School in Business Administration Editoriale, ha pubblicato un sondaggio il mese scorso, con lo scopo principale delle persone di consulenza terapeutica utilizzando gli strumenti AI quest’anno, oltre alla ricerca di un’azienda. Gli altri tre usi personali sono tra i primi dieci: mantenere la vita personale, trovare uno scopo e avere una vita sana.
“Ogni settimana, il Federal Council of Psychology (CFP) si consulta sull’uso dell’intelligenza artificiale relativa alla psicologia. Domande nello sviluppo di strumenti che sono presi di mira come tecnologie, ma non sono creati per questo, ma gli utenti non sono creati per questo, ma gli utenti utilizzeranno un uso terapeutico.”
Ciò ha portato alla CFP per creare un gruppo di lavoro da discutere Utilizzo dell’intelligenza artificiale per scopi terapeuticiBasato su o. L’agenzia studia come controllare i nuovi strumenti terapeutici che si adattano a metodi e metodi riconosciuti e sono sviluppati da professionisti qualificati, possono essere responsabili del loro uso. Dovrebbe anche pubblicare alcune linee guida per la popolazione presto, avvertendo che uno strumento che non è stato creato per questi scopi è in pericolo di fidarsi del loro benessere emotivo.
“Uno psicologo, una pratica psicologica, ha la responsabilità legale per le sue azioni di lavorare con tecniche e tecnologie psicologiche. Ma la tecnologia non è responsabile della tecnologia. Se non è sviluppata per scopi terapeutici, sono soggetti a ulteriori carenti, il consulente avverte il consulente.”
Profitti e perdite
Il professore post-laurea Leonardo Martins in Psychology presso la Ponnificial Catholic University of Rio de Janeiro (PUC-RIO) è uno degli esperti nella creazione di un gruppo di lavoro del Federal Council of Psychology. È uno dei creatori dell’applicazione che fornisce cure mentali gratuite alle persone con problemi con il consumo di alcol, oltre a studiare le tecnologie digitali che mirano al supporto della psicoterapia. Martin’s è contrario ai “demoni” degli strumenti digitali, ma sono considerati affidabili solo quando sono sviluppati da esperti responsabili, supportati da studi seri.
“Abbiamo 900 milioni di persone di salute mentale. Le seconde previsioni dell’Organizzazione mondiale della sanità, in particolare l’ansia e la frustrazione. Quindi, abbiamo una crisi importante in questa salute, qualche scenario esperto, richiede più risorse, ma queste risorse non sono per aiutarli.
Un esempio positivo di Leonardo Martins citato è un chatbat creato dal sistema sanitario inglese come ingresso ai servizi di salute mentale. La conversazione con l’intelligenza artificiale ha comportato una maggiore domanda di servizi sanitari, in particolare nella popolazione inferiore di immigrati e persone LGBTQIA+, spesso temendo di cercare aiuto.
Ma, secondo l’insegnante PUC-RIO, l’uso di piattaforme che non sono state create con questi obiettivi e non per raggiungere gli standard tecnici e morali hanno già mostrato risultati negativi.
“Uno studio ha chiaramente dimostrato che questi modelli sono attraenti per l’utente. Quindi quella persona ha detto: ‘Se voglio sbarazzarmi della mia ansia, i compiti che può svolgere per porre fine all’ansia, incluso evitare circostanze importanti. Se si verifica un incidente, raccomanda di non andare all’evento”, ha detto Martins.
La consulente di comunicazione scientifica Maria Elisa Almaida segue regolarmente con uno psicologo, ma ha anche usato un’app che funge da diario, per ricevere le risposte create da eventi, emozioni, desideri, riflessioni e idee. Ma l’uso di questi strumenti non è sicuro per le persone durante la crisi e che non può sostituire i professionisti della salute mentale.
“Ho più di una volta al giorno al giorno. Di solito alternativamente invece di controllare i social media. Ma ci sono volte in cui ho trascorso settimane senza scrivere. Questa app mi aiuta a mantenere la mia attenzione e offrire riflessi molto interessanti che ho da solo. Se mi sento ansioso nel mezzo del lavoro, penso di più e sto pensando più.”
Si ritiene che il consigliere della CFP Maria Carolina Rosiro sia dal lato positivo della crescente domanda di questi strumenti, ma alle eccezioni:
“Di solito, le persone pensano che le persone siano più preoccupate per la loro assistenza per la salute mentale. I rischi provengono dal fatto che alcune persone capiscono come funzionano queste interazioni certamente arrivando da noi. E la macchina non ha filtri per noi o la giustizia professionale.
La più logica di Martin del funzionamento di queste chat può causare effetti dannosi: “Sono d’accordo con noi. Si adattano ai nostri interessi, alle nostre verità, alle nostre verità, a ciò in cui crediamo … e spesso aiuto medico, aiuto psicologico, aiuto psicologico, aiuto psicologico, giusto? Quindi possiamo rendersi conto che stanno facendo più che benefici.
Privacy
Il gruppo di lavoro creato dal Federal Council of Psychology è anche legato alla privacy dei dati approvati dagli utenti.
“Questi strumenti di intelligenza artificiale sono disponibili nel contesto della salute nel contesto della salute. Quindi ci sono molti incidenti di rischio reale, concreto e le loro informazioni personali che condividono le loro informazioni personali e hanno queste informazioni utilizzate da terzi.
Secondo il professor Victor Hugo de Albukerki, c’è un motivo per preoccuparsi. “Se la piattaforma è stata hackerata o guasti alla sicurezza, le persone non autorizzate possono intercettare o accedere a dati personali e sensibili. Sebbene le piattaforme abbiano affermato che le conversazioni sono anonime o ignorate, queste interazioni sono in pericolo per migliorare i servizi, il che può causare vulnerabilità”, ha affermato Albuckerkew.
“Inoltre, i chatbot e i sistemi di intelligenza artificiale sono addestrati con grandi quantità di dati e possono essere utilizzati per migliorare i modelli senza utilizzare accidentalmente i dati personali. Crea il rischio di esporre senza chiara autorizzazione”, ha affermato.
Vedi anche: Gli alberi psichiatri descrivono i pericoli dei bambini rinati
Il trattamento può essere in grado di aumentare la tua felicità? Vedi cinque vantaggi