A Microsoft zei dat het werd gedetecteerd en gestopt, in samenwerking met zakenpartner OpenAI, veel bedreigingen die gebruik hebben gemaakt van beveiligingstechnologie of hebben geprobeerd deze te misbruiken inteligência kunstmatig dat zij ontwikkelden.
PUBLICITEIT
In een blogpost zei het bedrijf dat de technieken zich in een “vroeg stadium” bevonden en niet “bijzonder nieuw of uniek” waren, maar dat het belangrijk was om ze publiekelijk te ontmaskeren als rivalen van de VS, door gebruik te maken van brede taalmodellen om hun vermogen om inbreuken te plegen uit te breiden. netwerken en invloed uitoefenen.
Noord-Korea en Iran gebruiken AI voor hacking, Microsoft zegt https://t.co/NaNuLFIEUg
— Guardian VS (@GuardianUS) 14 februari 2024
Cybersecuritybedrijven maken al lang gebruik van machine learning ter verdediging, vooral om afwijkend gedrag in netwerken te detecteren. Maar ook criminelen en aanvallende hackers maken er gebruik van, en de introductie van grote taalmodellen wordt erdoor geleid ChatGPT da OpenAI dit kat-en-muisspel werd steeds intenser.
A Microsoft enkele voorbeelden gegeven. In elk geval stond dat alle generatieve AI-accounts en activa van de genoemde groepen waren uitgeschakeld.
PUBLICITEIT
Bedreigingen uit het buitenland
De Noord-Koreaanse cyberspionagegroep, bekend als Kimsuky, gebruikte de modellen om onderzoek te doen naar buitenlandse denktanks die het land bestudeerden en om inhoud te genereren die waarschijnlijk zou worden gebruikt in spearphishing-hackcampagnes.
De Iraanse Revolutionaire Garde heeft brede taalmodellen gebruikt om te helpen met engineering.aria sociaal, softwarefouten oplossen en zelfs bestuderen hoe indringers aan detectie op een netwerk kunnen ontsnappenpromehad.
De Russische militaire inlichtingeneenheid GRU – bekend als Fancy Bear – gebruikte de modellen om satelliet- en radartechnologieën te onderzoeken die mogelijk verband houden met de oorlog in Oekraïne.
PUBLICITEIT
De Chinese cyberspionagegroep Aquatic Panda – die zich richt op een breed scala aan industrieën, het hoger onderwijs en overheden, van Frankrijk tot Maleisië – heeft interactie gehad met de modellen “op manieren die suggereren dat er maar beperkt wordt onderzocht hoe LLM’s hun technische activiteiten kunnen vergroten”.
De Chinese groep Maverick Panda, die zich al meer dan tien jaar richt op Amerikaanse defensie-aannemers en andere sectoren, had interacties met grote taalmodellen, wat suggereert dat ze de effectiviteit ervan evalueerden als een bron van informatie “over potentieel gevoelige onderwerpen, spraakmakende individuen , geopolitieke regio’s, Amerikaanse invloed en binnenlandse zaken.”
In een aparte blog woensdag gepubliceerd, de OpenAI zei dat het huidige GPT-4-chatbotmodel “slechts beperkte, incrementele mogelijkheden biedt voor kwaadaardige cyberbeveiligingstaken die verder gaan dan wat al mogelijk is met openbaar beschikbare, niet-AI-tools.”
PUBLICITEIT
Lees ook: