AI Act, le norme sull’intelligenza artificiale che legge le emozioni: “Vietata a scuola e al lavoro”

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Cessione crediti fiscali

procedure celeri

 


Le prime disposizioni vincolanti dell’AI Act, una normativa dell’UE che regolamenta lo sviluppo e l’uso dell’IA in base al livello di rischio, è entrato in vigore il 2 febbraio scorso.

I divieti attuati immediatamente riguardano in particolare i sistemi di intelligenza artificiali più avanzati capaci di leggere le emozioni delle persone.

Divieto del riconoscimento delle emozioni nei contesti lavorativi e scolastici

Queste IA sono ritenute “pratiche ad alto rischio” ed è dunque vietato il loro utilizzo nei luoghi di lavoro e nelle istituzioni educative per scopi non medici o non legati alla sicurezza.

Microcredito

per le aziende

 

Nelle linee guida dell’AI Act viene proibito l’utilizzo di intelligenza artificiale per inferire emozioni durante colloqui di lavoro oppure durante il periodo di prova, per monitorare le emozioni degli studenti durante le lezioni, per valutare lo stress dei lavoratori o le loro interazioni con i clienti, sono esempi di pratiche vietate dall’AI Act.

Definizione di emozioni e chiarimenti sulle eccezioni

Il concetto di emozioni – o intenzioni – deve essere inteso “in senso ampio” e non interpretato in modo restrittivo.

Vengono specificate nell’AI Act emozioni come “felicità, tristezza, rabbia, sorpresa, disgusto, imbarazzo, eccitazione, vergogna, disprezzo, soddisfazione e divertimento”. Tuttavia, si legge nelle linee guida, “questi esempi non sono esaustivi”.

L’AI Act chiarisce che le emozioni o le intenzioni non includono gli stati fisici come dolore o affaticamento.

Questo vuol dire che i sistemi utilizzati per rilevare lo stato di stanchezza di piloti professionisti o conducenti, al fine di prevenire incidenti, sono pratiche autorizzate.

Rilevazione di espressioni e movimenti: quando è vietata?

Le linee guida approvate dalla Commissione Ue inoltre specificano che I sistemi di riconoscimento delle emozioni “non includono la mera rilevazione di espressioni, gesti o movimenti facilmente osservabili, a meno che non siano utilizzati per identificare o dedurre emozioni”.

Per esempio un’emittente tv che usa un’IA per contare i sorrisi di un conduttore – uno dei casi contenuti nell’AI Act – non infrange la legge. Mentre I sistemi che deducono, attraverso la voce o i gesti del corpo, che uno studente è furioso e sta per diventare violento rientrano nella categoria del “riconoscimento delle emozioni”.

Come l’IA legge le emozioni

L’intelligenza artificiale può interpretare le emozioni umane analizzando diversi input di dati, come espressioni facciali, toni di voce, linguaggio del corpo e contenuti testuali.

Contabilità

Buste paga

 

Ad esempio, i sistemi di IA dotati di computer vision possono valutare i movimenti del volto—come sorrisi o cipigli—per determinare gli stati emotivi.

Allo stesso modo, gli algoritmi di elaborazione del linguaggio naturale analizzano i modelli di voce, il tono e il timbro per identificare emozioni come felicità, rabbia o tristezza.

Nell’analisi del testo, l’IA esamina la scelta delle parole e la struttura delle frasi per valutare il sentimento espresso.

Queste tecnologie trovano applicazione in settori come il customer service, dove comprendere lo stato emotivo di un cliente può migliorare l’efficacia del servizio.

L’IA che legge le emozioni: quando è “ad alto rischio”

Tutti i sistemi di IA per il riconoscimento delle emozioni, che non rientrano nelle eccezioni previste dall’AI Act o che sono utilizzati “al di fuori dei luoghi di lavoro o delle istituzioni educative”, sono considerati comunque “ad alto rischio” e sono soggetti a requisiti specifici.

Tali sistemi – che per esempio potrebbero riconoscere le emozioni basandosi sulla digitazione della tastiera o sui messaggi vocali dei clienti – potrebbero comunque essere oggetto di altri divieti previsti dall’AI Act, che riguardano l’uso di sistemi di intelligenza artificiale per la manipolazione dannosa.

Divieto di manipolazione subliminale attraverso l’IA

A questo proposito l’AI Act vieta l’immissione sul mercato, la messa in servizio o l’uso di “sistemi di IA che impiegano tecniche subliminali o manipolative con l’obiettivo o l’effetto di distorcere materialmente il comportamento di una persona o di un gruppo di persone, causando o essendo ragionevolmente suscettibili di causare un danno significativo”.

Prestito condominio

per lavori di ristrutturazione

 

Il divieto si applica sia ai fornitori che agli utilizzatori dei sistemi di IA, ognuno secondo le proprie responsabilità.

Rientrano tra i servizi e i casi d’uso proibiti, per esempio, sistemi di IA “che utilizzano audio o immagini di sfondo per alterare l’umore e aumentare l’ansia degli utenti, portandoli a prendere decisioni dannose”, oppure “capaci di creare messaggi altamente persuasivi basati sui dati personali di un individuo”, o anche “chatbot che offrono prodotti fraudolenti che causano gravi danni finanziari”.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Richiedi prestito online

Procedura celere

 

Source link