top of page

Google waarschuwt dat AI-cyberaanvallen in 2026 van experimenteel naar volledig operationeel zullen verschuiven en gevaar kunnen zijn voor vele landen waaronder Israël

  • Foto van schrijver: Joop Soesan
    Joop Soesan
  • 7 uur geleden
  • 3 minuten om te lezen
ree

Foto Ynet


Uit een nieuwe dreigingsbeoordeling van Google Cloud Security blijkt dat kunstmatige intelligentie (AI), dat tot nu toe vooral experimenteel werd gebruikt bij cyberaanvallen, naar verwachting tegen 2026 volledig operationeel zal zijn in de handen van cybercriminelen, meldt Ynet.


Volgens het rapport zal AI niet langer dienen als aanvulling op traditionele methoden, maar een centrale rol spelen bij het automatiseren en opschalen van aanvallen, van op maat gemaakte phishing tot geavanceerde beïnvloedingsoperaties.


Analisten van Google beschrijven een duidelijke verschuiving van geïsoleerde demonstraties van AI-misbruik naar de integratie van AI direct in de aanvalsketen. Verwacht wordt dat dreigingsactoren AI-systemen zullen gebruiken om verkenningen te versnellen, berichten op maat te maken, synthetische audio en video te genereren en netwerken van gefabriceerde accounts te beheren die online verhalen kunnen vormgeven.


Het rapport benadrukt ook hoe aan de staat gelieerde groeperingen, waaronder die welke banden hebben met Iran, in toenemende mate AI-gegenereerde content en gecoördineerde beïnvloedingstechnieken gebruiken tijdens periodes van regionale spanningen.


Deze trend is met name relevant voor Israël. Radware's nieuwste wereldwijde analyse plaatst Israël op de tweede plaats als meest aangevallen land ter wereld, waardoor de ontwikkelingen die in Google's prognose worden beschreven direct relevant zijn voor lokale instellingen en bedrijven.


De technieken die in het rapport worden beschreven, van synthetische media tot gecoördineerde beïnvloedingsnetwerken, weerspiegelen patronen die eerder zijn waargenomen in aan Iran gekoppelde informatieoperaties gericht op regionale doelgroepen.


Naarmate AI-tools capabeler en toegankelijker worden, introduceert de verschuiving van experimenteel misbruik naar volledig operationele inzet een extra laag complexiteit in het toch al intensieve dreigingslandschap van Israël.


Omer Bachar , medeoprichter en CEO van Vetric, een bedrijf dat data-infrastructuur levert voor het detecteren van imitaties, deepfakes en digitale bedreigingen, zegt dat het patroon dat in het rapport van Google wordt beschreven, al zichtbaar is in recent onderzochte praktijkgevallen.


Hij legt uit: "We zien dezelfde volwassenheidstrend die in het rapport van Google wordt beschreven. Kunstmatige intelligentie (AI) beweegt zich van experimenteel naar volledig operationeel gebruik bij cyberaanvallen. Criminelen zetten AI nu in om de snelheid, nauwkeurigheid en schaal te verbeteren, met name in social engineering, identiteitsvervalsing en gecoördineerde beïnvloedingscampagnes. Dit markeert een duidelijke verschuiving van geïsoleerde proof-of-concept naar daadwerkelijke offensieve automatisering die in de praktijk wordt ingezet."


Een van de belangrijkste uitdagingen die zowel Google als Vetric benadrukken, is de toenemende toegankelijkheid van door AI gegenereerde media. Deepfake-audio en -video, ooit tijdrovend en duur om te produceren, kunnen nu snel worden gemaakt met publiekelijk beschikbare tools.

ree

Vetric CEO Omer Bachar. Foto: Teamme


Bachar waarschuwt dat deze mogelijkheid al wordt misbruikt. "Wanneer mensen een virale, door AI gegenereerde clip zien, of het nu een deepfake van een beroemdheid is of een realistische synthetische nieuwsvideo, realiseren ze zich zelden hoe gemakkelijk die is gemaakt.


Als een gewone gebruiker iets zo overtuigends kan maken met kant-en-klare tools, stel je dan eens voor wat een bekwame kwaadwillende kan doen door de stem en het gezicht van een familielid te klonen om zo overstuur te klinken en om geld te vragen. Deze mogelijkheden worden steeds toegankelijker en overtuigender. Tegenwoordig kan bijna iedereen met minimale inspanning en kosten een geloofwaardige scam uitvoeren."


Het rapport van Google benadrukt dat de overstap naar operationele AI gevolgen zal hebben voor overheden, kritieke sectoren en alledaagse gebruikers. Social engineeringcampagnes die worden aangestuurd door AI-gegenereerde stemmen, AI-gegenereerde phishingberichten en AI-gestuurde verkenning zullen naar verwachting zowel in volume als in verfijning toenemen.


Deze operaties, aldus het rapport, kunnen deepfake-content combineren met grootschalige beïnvloedingscampagnes, waardoor het voor individuen moeilijker wordt om echte informatie van verzonnen verhalen te onderscheiden.


Het algemene beeld dat de prognose schetst, is er een van snelle versnelling. Wat ooit een opkomend risico was, wordt een centraal onderdeel van cyberoperaties wereldwijd.


Naarmate AI-systemen capabeler en breder beschikbaar worden, wordt de kloof tussen experimenten en volledig operationeel gebruik kleiner. De beoordeling van Google onderstreept de urgentie voor organisaties, beleidsmakers en het publiek om deze ontwikkelingen te begrijpen en zich voor te bereiden op een golf van AI-dreigingen die moeilijker te detecteren, sneller te implementeren en gemakkelijker op te schalen zullen zijn voor aanvallers.




























































 
 
 
Met PayPal doneren
bottom of page