Hoe cybercriminelen AI-tools zoals ChatGPT benutten en hoe jij je kunt beschermen

Auteur: Dennis Lieferink

In de huidige digitale wereld staat technologie nooit stil, en dat geldt ook voor de manieren waarop cybercriminelen te werk gaan. 

Het gebruik van AI-tools zoals ChatGP is flink toegenomen onder werknemers.
Dat heeft zeker voordelen als het gaat om productiviteit, maar denken we ook na over de risico’s voor die dat met zich meebrengt voor je organisatie? Waar gaat de data naar toe die wordt ingevoerd?


Deze tools worden namelijk steeds vaker ingezet door hackers. Maar hoe gebruiken ze deze technologie precies, en belangrijker nog, hoe kun je jezelf daartegen wapenen? 

De impact van ChatGPT op de techwereld

Sinds de lancering van ChatGPT in november 2022 is de technologie snel gegroeid en heeft binnen een half jaar al meer dan 100 miljoen gebruikers bereikt. Dit komt door de brede toepassingen en het vermogen om menselijk ogende interacties te genereren. Echter, deze ontwikkeling heeft ook geleid tot nieuwe uitdagingen op het gebied van cybersecurity. 

De andere kant: cyberdreigingen 

Hoewel ChatGPT veel voordelen biedt, hebben experts onmiddellijk gewaarschuwd voor de risico's van misbruik door cybercriminelen. AI-tools zoals ChatGPT maken het voor hen eenvoudiger om aanvallen uit te voeren, vooral voor degenen zonder uitgebreide programmeerervaring. Een bekend cybersecuritybedrijf heeft kort na de lancering al meerdere aanvallen gesignaleerd die verband houden met ChatGPT. 

Vier manieren waarop hackers AI-tools gebruiken 

  1. Phishing en spear phishing: Hackers kunnen overtuigende berichten genereren die er menselijk uitzien, wat ideaal is voor phishingcampagnes. Unieke, op maat gemaakte berichten worden sneller geproduceerd, waardoor spear phishing effectiever wordt, ook in talen die de hackers zelf niet spreken. 
  1. Social engineering en CEO-fraude: Met technieken zoals stemklonen kunnen oplichters zich voordoen als leidinggevenden en medewerkers manipuleren om geld over te maken. Hoewel dit voor velen als toekomstmuziek klinkt, waarschuwt de Federal Trade Commission (FTC) dat deze vormen van fraude snel toenemen. 
  1. Malware creatie: ChatGPT is in staat programmeercode te schrijven en verbeteren, wat door cybercriminelen kan worden gebruikt om malware te ontwikkelen, zelfs zonder programmeerkennis. 
  2. Kwetsbaarheden opsporen: LLM’s zijn effectief in het identificeren van softwarekwetsbaarheden. Hackers gebruiken deze technologie om zwakke punten in systemen te vinden en te exploiteren.
     

Waakzaamheid en bescherming 

Met de opkomst van AI-tools zoals ChatGPT is het cruciaal om je beveiliging op orde te hebben. Hier zijn enkele essentiële maatregelen die je kunt nemen: 

  • Gebruik moderne antivirussoftware: Endpoint detection & response (EDR)-systemen detecteren niet alleen malware maar ook afwijkend gedrag. 
  • Security-awareness trainingen: Medewerkers kunnen leren hoe ze cyberdreigingen zoals phishing kunnen herkennen. 
  • Tweefactorauthenticatie (2FA): Een effectieve manier om phishingpogingen te bestrijden. 
  • Extra Veilig Internet: Voor KPN EEN MKB-klanten biedt dit DNS, web- en malwarefilter bescherming tegen malafide websites. 
  • Maak regelmatig back-ups: Zorg ervoor dat al je data, ook in de cloud, goed wordt geback-upt, bijvoorbeeld met Acronis Cyber Protect. 

Het is van essentieel belang dat organisaties hun beveiligingsbeleid aanpassen aan de nieuwe realiteit die AI-tools met zich meebrengen. Door proactief te handelen en je beveiliging te versterken, kun je de risico's van cybercriminaliteit aanzienlijk verminderen. 

Van risico’s naar oplossingen: de stap naar Agents en Copilot 

Daar ligt de kracht van het werken met Agents in Microsoft Copilot Studio. Waar ChatGPT in een open omgeving draait, kun je met Copilot juist kiezen voor een gecontroleerde en veilige implementatie. In plaats van dat bedrijfsgevoelige informatie buiten de organisatie terechtkomt, werk je in een afgeschermde omgeving waarin jij de controle behoudt. 

Met Copilot Studio bouw je je eigen agent die volledig aansluit op jouw organisatie. Je bepaalt zelf welk LLM-model wordt gebruikt en traint de agent met je eigen bedrijfsdata, denk aan productinformatie, interne processen en zelfs de tone of voice van je merk. Hierdoor krijg je niet alleen relevante en betrouwbare antwoorden, maar borg je ook consistentie in klant- en medewerker communicatie. 

Daarnaast biedt het platform uitgebreide beveiliging en compliance opties. Data blijft binnen de vertrouwde Microsoft-omgeving en voldoet aan de geldende privacy- en securitystandaarden. Dit betekent dat je medewerkers veilig gebruik kunnen maken van AI, zonder dat je concessies hoeft te doen op het gebied van vertrouwelijkheid of regelgeving. 

Zo sla je de brug van risico’s naar kansen: je benut de voordelen van AI, maar dan binnen een veilige, schaalbare en vertrouwde omgeving. Daarmee bescherm je niet alleen je organisatie tegen de dreigingen van buitenaf, maar zet je AI ook écht in als strategische versneller. Het resultaat: efficiëntere processen, betere klantinteracties en medewerkers die slimmer en veiliger kunnen werken met de kracht van AI. 

 

Mitchell-van-den-Akker
Voldoet jouw organisatie al aan NIS2?
Mitchell van den Akker Security expert
Wij helpen je NIS2 compliant te worden