Il lato oscuro di ChatGPT: i criminali lo usano per commettere reati

Oggi tutti hanno sulle labbra ChatGPT e viene venduto come la soluzione a molti problemi dai suoi difensori, e come l'arrivo delle sette piaghe d'Egitto in una dai suoi detrattori. Comunque sia, non è altro che uno strumento e come tale può essere utilizzato per usi buoni e cattivi. Ed è quello L'intelligenza artificiale può essere utilizzata anche dai criminali.

Non lo diciamo noi, ma è la stessa Europol ad avvertire che delinquenti e criminali starebbero utilizzando ChatGPT per compiere i loro atti. Tutto questo nasce da un rapporto realizzato da diversi poliziotti dell'Unione Europea sui fallimenti che la famosa chat basata sull'IA di fronte alla sicurezza dei cittadini. A quali conclusioni sono arrivati? Ebbene, non sono incoraggianti, poiché ritengono che sia uno strumento che può essere utilizzato in vari tipi di reati diversi.

Il lato oscuro di ChatGPT

In che modo i criminali possono utilizzare ChatGPT?

Europol ha fornito tre esempi in cui ChatGPT può aiutare i criminali a compiere i loro atti di vandalismo, rendendo questo strumento quasi uguale a un coltello. Che sebbene sia usato per cucinare, possiamo anche usarlo per ferire o uccidere un'altra persona.

  • ChatGPT può essere utilizzato per generare testi molto più credibili al fine di truffare le persone con tecniche di Phishing. In particolare, le sue capacità potrebbero essere utilizzate da criminali stranieri specializzati in questo tipo di truffe per spacciarle in modo più naturale. Dal momento che il lettore lo vedrebbe come linguaggio naturale.
  • Parlano anche di come questa capacità possa essere utilizzata per creare propaganda e disinformazione per reclutare persone per gruppi terroristici e sette distruttive. Tutto questo può essere combinato con l'uso di IA generatrici di immagini per la creazione di informazioni false che possono essere utilizzate per la generazione di notizie false.
  • Ci sono stati casi in cui l'IA ha fornito dati privati ​​confidenziali che possono rappresentare un serio pericolo.
  • Infine, ChatGPT verrebbe utilizzato dai criminali per creare malware. Sebbene non tutto ciò che l'IA genera sia funzionale o corretto, ha la capacità di comprendere e scrivere codice. Quindi apre la possibilità di creare malware di ogni tipo.

La conclusione di tutto questo? Riteniamo che Europol stia esagerando, in ogni caso, non abbiamo conoscenze di criminalità e criminalità come loro. Quindi, in tutto questo, devono sapere qualcosa che noi non sappiamo.

Criminali cibernetici

Questi non sono gli unici esempi di uso improprio di ChatGPT

Per molti anni, il marketing virale è diventato un modo per utilizzare il passaparola tra le persone per influenzare l'intenzione di acquisto. Le IA di tipo ChatGPT vengono utilizzate per chiedere consigli di acquisto per vari prodotti e ciò che fanno è leggere enormi quantità di recensioni per trarre una conclusione. Bene, sebbene non siano atti criminali, ci sono già persone che scrivono recensioni false, sia positive che negative, per influenzare l'IA a formulare raccomandazioni sui prodotti.

Questo può creare un'enorme perdita di fiducia nel sistema e dare una cattiva immagine a molti grandi negozi online come Amazon o AliExpress. Sebbene non dovrebbe influire sui sistemi di supporto post-vendita di marchi specifici sui loro prodotti, influisce su grandi superfici digitali e può diventare un problema serio. Non dimentichiamo che non tutti hanno conoscenze sufficienti per prendere le decisioni migliori al momento dell'acquisto di determinati prodotti.

ChatGPT dipende dalle informazioni che gli vengono fornite come input e quei dati se non vengono filtrati sono un problema. Questo sarà un problema su queste piattaforme e per i marchi che dovranno assumere personale per rimuovere la disinformazione e FUD sui loro prodotti.