I senatori americani stanno esortando l’amministrazione Biden a proteggere gli anziani americani dalle truffe rese ancora più facile dall’uso di IA (intelligenza artificiale). Pochi giorni fa infatti, Il senatore Mike Braun, insieme ad altri membri della commissione speciale del Senato sull’invecchiamento, ha scritto una lettera alla Federal Trade Commission (FTC) chiedendo un aggiornamento sulle truffe guidate dall’intelligenza artificiale che prendono di mira gli anziani e le misure adottate per salvaguardare le persone.
La lettere scritta da Mike Braun
La lettera evidenzia l’uso di cloni vocali e chatbot da parte dei truffatori per ingannare gli anziani facendogli credere di parlare con una persona di fiducia, come un nipote o un parente stretto. La maggior delle truffe basate messe in piedi con l’uso di IA infatti, iniziano con un parente bisognoso di denaro o la voce di un bambino che piange e chiedere riscatto alla vittima per essere salvato. Le truffe di impostori causano circa 2,6 miliardi di dollari di perdite all’anno. Gli anziani sono particolarmente vulnerabili a queste truffe a causa della disponibilità della tecnologia dell’IA. Nella lettera, i senatori esortano la FTC a migliorare i suoi materiali di sensibilizzazione per aiutare gli anziani a riconoscere e proteggersi dalle truffe che usano voci generate dall’IA. Mike Braun infine, sottolinea l’importanza di affrontare i rischi associati all’IA, dimostrandosi preoccupato per l’uso improprio di questa tecnologia.
Dopo Samsung, anche Apple vieta l’uso di Chatgpt

Anche le grandi aziende sono preoccupate dall’uso improprio dell’IA. Dopo Samsung infatti, anche Apple è intervenuta sulla questione. Secondo il Wall Street Journal infatti, Apple avrebbe vietato ai suoi dipendenti di utilizzare ChatGPT e altre simili piattaforme IA di terze parti. Apple sta lavorando alla propria intelligenza artificiale, quindi vuole impedire ai dipendenti che lavorano sulla IA di Apple di divulgare accidentalmente informazioni sensibili. Oltre a ChatGPT, Apple ha vietato anche l’uso di GitHub’s Copilot, di proprietà di Microsoft, che consente agli sviluppatori di automatizzare la scrittura del codice. Anche altre società, come JP Morgan, Verizon e Amazon, hanno vietato ai propri dipendenti di utilizzare piattaforme di intelligenza artificiale di terze parti e hanno incoraggiato l’uso di strumenti di intelligenza artificiale interni.
Meta pubblica la propria tecnologia IA: Google non approva

Se le altre grandi aziende vietano l’uso di Chatgpt e dell’IA in generale, Meta fa tutt’altro. Secondo quanto riportato dal New York Times infatti, Meta avrebbe deciso di pubblicare la propria tecnologia IA. Così facendo le persone sarebbero in grado di costruire i propri chatbot. Google, tuttavia, definisce l’azione come pericolosa. Le grandi aziende hanno opinione diverse sull’IA: ma è davvero pericolosa o porterà più benefici che problemi?