Afbeeldingscredits: Curto Nieuws/BingAI

Noord-Korea en Iran gebruiken AI om te hacken, zegt Microsoft

Amerikaanse tegenstanders – vooral Iran en Noord-Korea en, in mindere mate, Rusland en China – beginnen generatieve kunstmatige intelligentie (AI) te gebruiken om offensieve cyberoperaties op te zetten of te organiseren, aldus de Amerikaanse regering. Microsoft op woensdag (14).

A Microsoft zei dat het werd gedetecteerd en gestopt, in samenwerking met zakenpartner OpenAI, veel bedreigingen die gebruik hebben gemaakt van beveiligingstechnologie of hebben geprobeerd deze te misbruiken inteligência kunstmatig dat zij ontwikkelden.

PUBLICITEIT

In een blogpost zei het bedrijf dat de technieken zich in een “vroeg stadium” bevonden en niet “bijzonder nieuw of uniek” waren, maar dat het belangrijk was om ze publiekelijk te ontmaskeren als rivalen van de VS, door gebruik te maken van brede taalmodellen om hun vermogen om inbreuken te plegen uit te breiden. netwerken en invloed uitoefenen.

Cybersecuritybedrijven maken al lang gebruik van machine learning ter verdediging, vooral om afwijkend gedrag in netwerken te detecteren. Maar ook criminelen en aanvallende hackers maken er gebruik van, en de introductie van grote taalmodellen wordt erdoor geleid ChatGPT da OpenAI dit kat-en-muisspel werd steeds intenser.

A Microsoft enkele voorbeelden gegeven. In elk geval stond dat alle generatieve AI-accounts en activa van de genoemde groepen waren uitgeschakeld.

PUBLICITEIT

Bedreigingen uit het buitenland

De Noord-Koreaanse cyberspionagegroep, bekend als Kimsuky, gebruikte de modellen om onderzoek te doen naar buitenlandse denktanks die het land bestudeerden en om inhoud te genereren die waarschijnlijk zou worden gebruikt in spearphishing-hackcampagnes.

De Iraanse Revolutionaire Garde heeft brede taalmodellen gebruikt om te helpen met engineering.aria sociaal, softwarefouten oplossen en zelfs bestuderen hoe indringers aan detectie op een netwerk kunnen ontsnappenpromehad. 

De Russische militaire inlichtingeneenheid GRU – bekend als Fancy Bear – gebruikte de modellen om satelliet- en radartechnologieën te onderzoeken die mogelijk verband houden met de oorlog in Oekraïne.

PUBLICITEIT

De Chinese cyberspionagegroep Aquatic Panda – die zich richt op een breed scala aan industrieën, het hoger onderwijs en overheden, van Frankrijk tot Maleisië – heeft interactie gehad met de modellen “op manieren die suggereren dat er maar beperkt wordt onderzocht hoe LLM’s hun technische activiteiten kunnen vergroten”.

De Chinese groep Maverick Panda, die zich al meer dan tien jaar richt op Amerikaanse defensie-aannemers en andere sectoren, had interacties met grote taalmodellen, wat suggereert dat ze de effectiviteit ervan evalueerden als een bron van informatie “over potentieel gevoelige onderwerpen, spraakmakende individuen , geopolitieke regio’s, Amerikaanse invloed en binnenlandse zaken.”

In een aparte blog woensdag gepubliceerd, de OpenAI zei dat het huidige GPT-4-chatbotmodel “slechts beperkte, incrementele mogelijkheden biedt voor kwaadaardige cyberbeveiligingstaken die verder gaan dan wat al mogelijk is met openbaar beschikbare, niet-AI-tools.”

PUBLICITEIT

Lees ook:

omhoog scrollen