Grazie per l'iscrizione, un referente del team PR globale ti ricontatterà quanto prima.
Il focus primario di questo studio è sul modo in cui gli attori malintenzionati possono abusare dell'intelligenza artificiale, dell'apprendimento automatico e dei sistemi informativi intelligenti. I ricercatori hanno identificato una varietà di usi potenzialmente dannosi per l'intelligenza artificiale che sono alla portata degli attaccanti di oggi, compresa la creazione di sofisticate campagne di disinformazione e ingegneria sociale.
E se da un lato la ricerca non ha trovato prove definitive che gli attori malintenzionati stiano attualmente utilizzando l'intelligenza artificiale per potenziare gli attacchi informatici, dall’altro è emerso che gli avversari stanno già attaccando e manipolando i sistemi di IA esistenti utilizzati dai motori di ricerca, dai social media, dai siti web di recommendation, ecc.
Per Andy Patel, ricercatore del centro di eccellenza per l'intelligenza artificiale di F-Secure, tutto questo potrebbe sembrare per molte persone sorprendente. I ritratti popolari di Intelligenza Artificiale fanno pensare che l’IA si rivolterà contro di noi e inizierà ad attaccare le persone da sola. Ma la realtà attuale è che, al contrario, sono gli umani che stanno attaccando i sistemi di IA su base regolare.
“Alcune persone identificano erroneamente l'intelligenza artificiale con l'intelligenza umana, e penso che sia per questo che associano la minaccia dell'IA ai robot killer e ai computer fuori controllo", spiega Patel. "Ma gli attacchi umani contro l'IA avvengono in continuazione. Attacchi Sybil progettati per contaminare i sistemi di IA che le persone usano ogni giorno, come i sistemi di reputazione online, sono un evento comune. Ci sono persino aziende che vendono servizi per supportare tutto questo. Quindi, per ironia della sorte, i sistemi di IA di oggi hanno più da temere dagli umani che non il contrario.”
Gli attacchi Sybil coinvolgono una singola entità che crea e controlla più account fasulli al fine di manipolare i dati che l'IA utilizza per prendere decisioni. Un esempio popolare di questo attacco è la manipolazione del posizionamento nei motori di ricerca o dei sistemi di reputazione per promuovere o abbassare determinati contenuti. Tuttavia, questi attacchi possono anche essere usati per il social engineering di individui in scenari di attacco mirati.
"Questi tipi di attacchi sono estremamente difficili da rilevare per i provider di servizi online ed è probabile che questo comportamento sia molto più diffuso di quanto chiunque possa pensare", afferma Patel, che ha condotto ricerche approfondite su attività sospette su Twitter.
Ma forse l'applicazione di IA più utile per gli attaccanti in futuro consisterà nell’aiuto che offrirà a questi malintenzionati per creare contenuti falsi. Il rapporto rileva che l'intelligenza artificiale ha raggiunto il punto in cui può produrre contenuti scritti, audio e visivi estremamente realistici. Alcuni modelli di intelligenza artificiale sono stati persino nascosti al pubblico per impedire che venissero sfruttati dagli attaccanti.
"Al momento, la nostra capacità di creare contenuti falsi convincenti è molto più sofisticata e avanzata della nostra capacità di rilevarli. E l’IA ci aiuta a migliorare la produzione di audio, video e immagini, rendendo la disinformazione e il contenuto falso più sofisticati e difficili da rilevare", afferma Patel. "E ci sono molte diverse applicazioni per contenuti convincenti e falsi, quindi mi aspetto che tutto questo finisca per rappresentare un vero problema."
Lo studio è stato prodotto da F-Secure e dai suoi partner in SHERPA - un progetto finanziato dall'UE fondato nel 2018 da 11 organizzazioni di 6 paesi diversi. Ulteriori risultati e argomenti trattati nello studio includono:
"L'obiettivo del nostro progetto è comprendere le conseguenze etiche e sui diritti umani dell'IA e dell'analisi dei big data per aiutare a sviluppare modi per affrontarle. Questo lavoro deve basarsi su una solida conoscenza delle capacità tecniche così come delle vulnerabilità, un'area cruciale di competenza che F-Secure offre al consorzio", afferma Stahl. "Non possiamo avere conversazioni significative sui diritti umani, sulla privacy o sull'etica nell'IA senza considerare la cyber security. E come fonte affidabile di conoscenza della sicurezza, i contributi di F-Secure sono una parte centrale del progetto. "
L’intero studio è attualmente disponibile qui. Ulteriori informazioni sull'intelligenza artificiale e sulla cyber security sono disponibili sul blog di F-Secure e sul blog dei Laboratori di ricerca di F-Secure, News from the Labs.
Nessuno conosce la cyber security come F-Secure. Per tre decenni, F-Secure ha guidato l’innovazione nella cyber security, difendendo decine di migliaia di aziende e milioni di persone. Con un’esperienza insuperabile nella protezione degli endpoint, così come nella rilevazione e risposta, F-Secure difende aziende e utenti da attacchi informatici avanzati, violazioni di dati e dalle diffuse infezioni ransomware. La sofisticata tecnologia di F-Secure combina la forza del machine learning con l’esperienza umana degli esperti presenti nei suoi rinomati laboratori di sicurezza con un approccio singolare chiamato Live Security. Gli esperti di sicurezza di F-Secure hanno preso parte a più investigazioni sul crimine informatico in Europa di qualsiasi altra azienda sul mercato, e i suoi prodotti sono venduti in tutto il mondo attraverso oltre 200 operatori di banda larga e telefonia mobile e migliaia di rivenditori.
Fondata nel 1988, F-Secure è quotata al NASDAQ OMX Helsinki Ltd.
Samanta Fumagalli
Resp. Ufficio Stampa
samanta.fumagalli@gmail.com
info@samantafumagalli.com
Mobile 320.9011759
Iscriviti per ricevere i comunicati stampa F-Secure
Naviga nelle nostre notizie per anno.
Naviga nelle nostre notizie per categoria.