…en wat dit voor implicaties heeft voor cybersecurity
Het jaar 2024 lijkt cruciaal te worden in de evolutie van kunstmatige intelligentie (AI), met name op het gebied van social engineering. Naarmate de mogelijkheden van AI exponentieel toenemen, nemen ook de kansen voor cybercriminelen toe om deze vooruitgang te benutten voor geavanceerdere en potentieel schadelijke social engineering-aanvallen. Stu Sjouwerman, CEO van KnowBe4 geeft zijn top 10 van verwachte AI-ontwikkelingen in 2024 inclusief wat de mogelijke implicaties zijn voor cybersecurity.
1.Exponentiële groei in AI-redeneringen en mogelijkheden Het innovatieniveau van AI is voor velen moeilijk voor te stellen. Er wordt verwacht dat het redeneervermogen van AI enorm zal toenemen en op bepaalde gebieden mogelijk de menselijke intelligentie zal overtreffen. Dit zou kunnen leiden tot meer overtuigende en aanpasbare AI-gestuurde social engineering-tactieken, omdat cybercriminelen deze capaciteit om te redeneren gebruiken om meer overtuigende aanvallen uit te voeren. 2.Multimodal Large Language Models (MLLM’s) MLLM’s, die verschillende soorten gegevens kunnen verwerken en begrijpen, zullen in 2024 centraal staan. Deze modellen kunnen worden gebruikt om zeer overtuigende en contextueel relevante phishingberichten of nep-profielen op sociale media te creëren, waardoor de doeltreffendheid van social engineering-aanvallen aanzienlijk toeneemt. 3.Tekst-naar-video (T2V)-technologie De vooruitgang in T2V-technologie betekent dat AI-gegenereerde video’s de norm worden voor desinformatie en deep fakes. Dit zou belangrijke gevolgen kunnen hebben voor nepnieuws en propaganda, met name in de context van de verkiezingen, of als het gaat om realtime Business Email Compromise-aanvallen, ook wel CEO-fraude genoemd. 4.Revolutie in AI-gestuurd leren Het vermogen van AI om hiaten in kennis te identificeren en het leerproces te verbeteren, kan worden gebruikt om te manipuleren of te misleiden door middel van op maat gemaakte desinformatiecampagnes, gericht op individuen op basis van hun leerpatronen of vermeende zwakke punten. 5.Uitdagingen voor AI-regulering De pogingen van overheden om AI te reguleren om catastrofale risico’s te voorkomen, zullen een belangrijk aandachtspunt zijn. De snelheid van AI-innovatie zal de regelgevende inspanningen echter voorbijstreven, wat zal leiden tot een periode waarin geavanceerde AI-technologieën onvermijdelijk zullen worden gebruikt voor social engineering-aanvallen. 6.De AI-investeringsbubbel en mislukkingen van startups De stijging van het AI-durfkapitaal duidt op een bloeiende markt, maar het potentiële falen van AI-startups als gevolg van de veroudering van het bedrijfsmodel zou kunnen leiden tot een reeks geavanceerde, maar onbeveiligde AI-tools die ook ingezet kunnen worden voor kwaadwillig gebruik. 7.Door AI gegenereerde desinformatie bij verkiezingen Nu er overal ter wereld belangrijke verkiezingen op stapel staan (zeker veertig!), is de dreiging van door AI gegenereerde desinformatiecampagnes groter dan ooit. Deze geavanceerde AI-tools worden al gebruikt om de publieke opinie te beïnvloeden of politieke onrust te creëren. 8.AI-technologie beschikbaar voor onervaren cybercriminelen Naarmate AI toegankelijker en kosteneffectiever wordt, neemt de kans toe dat geavanceerde AI-tools in verkeerde handen vallen. Dit kan leiden tot een toename van AI-gestuurde social engineering-aanvallen door minder technisch onderlegde cybercriminelen. 9.Verbeterde AI-hardwaremogelijkheden Jensen Huang, medeoprichter en chief executive van Nvidia, vertelde tijdens de DealBook Summit eind november dat “er een heleboel dingen zijn die we nog niet kunnen”. De vooruitgang in AI-hardware, zoals Neural Processing Units (NPU), zal echter leiden tot snellere en geavanceerdere AI-modellen. Dit zou realtime, adaptieve social engineering-tactieken mogelijk kunnen maken, waardoor oplichting overtuigender en moeilijker te detecteren wordt. 10.AI in cybersecurity en de wapenwedloop Terwijl de vooruitgang op het gebied van AI tools biedt voor cybercriminelen, maakt het ook effectievere AI-gestuurde beveiligingssystemen mogelijk. Dit leidt tot een escalerende wapenwedloop tussen cybersecurity-maatregelen en de tactieken van aanvallers, waarbij realtime AI-bewaking tegen AI-gestuurde social engineering-aanvallen realiteit zou kunnen worden. Het resultaat is dat 2024 een super belangrijk jaar wordt in de ontwikkeling van AI, met verstrekkende gevolgen voor social engineering. Het is cruciaal voor cybersecurity-professionals om deze trends voor te blijven, een sterke security-cultuur op te bouwen, hun strategieën aan te passen en hun personeel te blijven bijscholen door middel van frequente trainingen op het gebied van security awareness en compliance. |