
Temel Çıkarımlar
- Uzmanlar, AI destekli siber saldırıların verilerinize girebileceğini söylüyor.
- Tanınmış siber güvenlik uzmanı Bruce Schneier yakın tarihli bir konferansta yapay zekanın bilgisayar sistemlerine sızmasından giderek daha fazla endişe duyduğunu söyledi.
- 2018’de TaskRabbit’e karşı yapay zeka güdümlü bir siber saldırı başlatıldı ve bu saldırı 3,75 milyon kullanıcıyı tehlikeye attı.
Bilgisayar korsanları yakında yapay zeka kullanarak bilgisayarınıza girebilir. Ünlü siber güvenlik uzmanı Bruce Schneier yakın zamanda bir konferansta yapay zekanın bilgisayar sistemlerine sızmasının kaçınılmaz olduğundan endişe duyduğunu söyledi. Uzmanlar, AI saldırılarının büyüyen bir tehdit olduğunu söylüyor. Deloitte Risk & Financial Advisory’de siber güvenlik uzmanı olan Andrew Douglas, bir e-posta röportajında, “Yapay zekanın bilgisayar korsanlığı açısından giderek daha fazla yardımcı olmaya başlamasıyla, kullanıcıların ve tüketicilerin verileri önemli ölçüde daha fazla risk altında olabilir” dedi. “Bilgisayar korsanları genellikle en az çabayla en kolay hedefi ararlar ve yapay zeka onların daha iyi savunmaya sahip daha fazla insanı daha kısa sürede hedeflemelerine olanak tanır.” Schneier, yapay zekanın tehlikeleri konusunda uyarıda bulunan en son kişiydi. Schneier’in yakın tarihli bir konferansta “Herhangi bir iyi AI sistemi doğal olarak hack’leri bulacaktır” dedi. “İnsan bağlamından yoksun oldukları için yeni çözümler buluyorlar ve sonuç olarak bu çözümlerden bazılarının insanların sahip olduğu beklentileri kırması – dolayısıyla bir hack olması.”
Yapay Zeka Telefonlar Evinize Girsin
Bilgisayar korsanları zaten bilgisayarları gözetlemek için AI kullanıyor. Pixel Privacy web sitesinde bir tüketici gizliliği savunucusu olan Chris Hauk, bir e-posta röportajında, 2018 yılında TaskRabbit’e karşı 3,75 milyon kullanıcıyı tehlikeye atan, ancak izlenemez olduğu kanıtlanan yapay zeka güdümlü bir siber saldırı başlatıldı. “Saldırı, yapay zeka tarafından kontrol edilen ve bağımlı makineleri TaskRabbit’in sunucularına büyük bir DDoS saldırısı gerçekleştirmek için kullanan büyük bir botnet kullanan bilgisayar korsanları tarafından başlatıldı” diye ekledi. ProPrivacy’de veri gizliliği uzmanı olan Ray Walsh bir e-posta röportajında, 2016’da Defcon’da sistemlere başarılı bir şekilde sızmak için makine öğrenimi algoritmalarının kullanıldığını belirtti. O sırada yedi takım, 2 milyon dolarlık ödül kazanmak için DARPA’nın Büyük Mücadelesi için yarıştı. “Zorluk sırasında rakipler, güvenlik açıklarını bulmak, istismarlar oluşturmak ve otomatik yollarla yamaları dağıtmak için yapay zekayı kullandı” diye ekledi. Harrisburg Bilim ve Teknoloji Üniversitesi’nde siber güvenlik profesörü olan Bruce Young, bir e-posta röportajında, yapay zekanın botnet’leri kontrol etmek için kullanıldığını, kötü bir aktörün kontrolü altındaki bir grup ele geçirilmiş bilgisayarın diğer bilgisayarlara saldırmak için kullanıldığını söyledi. “AI, bir kişinin banka, sağlık, ehliyet, doğum günleri gibi bilgilerini otomatik olarak toplamak için kullanılabilir” dedi. “Gelişmiş bir kimlik avı girişimi formüle edebilir ve bir kullanıcıya yasal gibi görünen bir e-posta gönderebilirler.” Comparitech web sitesinde bir gizlilik savunucusu olan Paul Bischoff, bir e-posta röportajında, AI’nın güvenlik açıklarını keşfederek ve bunlardan yararlanarak bilgisayar korsanlığı yapmak için kullanılabileceğini söyledi. Yapay zeka ve makine öğrenimi, insanların kaçıracağı kalıpları tespit edebilir. Bu modeller zayıflıkları ortaya çıkarabilir… Daha sonra yapay zeka bu güvenlik açıklarını kullanabilir… “Yapay zeka ve makine öğrenimi, insanların gözden kaçıracağı kalıpları tespit edebilir” diye ekledi. “Bu modeller, bir hedefin siber güvenliğindeki veya operasyonel güvenliğindeki zayıflıkları ortaya çıkarabilir. Daha sonra yapay zeka, bu güvenlik açıklarını bir insandan çok daha hızlı ve aynı zamanda geleneksel bir bottan daha esnek bir şekilde kullanabilir.” Bischoff, AI’nın saldırılarını insan girişi olmadan değiştirebileceğini ve iyileştirebileceğini söyledi. “Yapay zeka özellikle gizleme için çok uygundur ve verileri topladığı veya uzun bir süre boyunca saldırılar başlattığı bir sistem içinde saklanabilir” diye ekledi.
Kendinizi Yapay Zekadan Koruma
Bischoff, ne yazık ki, kullanıcıların kendilerini yapay zeka tabanlı saldırılardan korumak için yapabilecekleri belirli bir şey olmadığını söyledi. “Yalnızca olağan yönergeleri izleyin,” dedi. “Dijital ayak izinizi en aza indirin, yazılımınızı güncelleyin, antivirüs kullanın, güvenlik duvarı kullanın, yalnızca saygın kaynaklardan saygın yazılımlar indirin, istenmeyen iletilerdeki bağlantılara veya eklere tıklamayın.” Ancak, yapay zeka destekli daha fazla saldırı için kendinizi hazırlayın.
Bischoff, “Yapay zeka hem siber güvenlik hem de siber saldırılar için kullanılıyor ve gelecekte yapay zeka sistemlerinin birbirine saldırdığını görebiliriz” dedi. “Örneğin, AI, insan olmayan davranışları belirlemek ve botlara karşı önlem almak için kullanılabilir. Tersine, AI, botlar tarafından insan davranışını daha doğru bir şekilde taklit etmek ve bot tespit sistemlerini atlamak için kullanılabilir.” Siber güvenlik firması Mimoto’nun CEO’su Kris Bondi bir e-posta röportajında, devlet destekli grupların gelecekte AI saldırılarının muhtemel kaynağı olacağını söyledi. Bondi, “Bu kategori, giderek daha karmaşık hale gelen ihlallerde şimdiden bir artışa neden oluyor” diye ekledi. “Yapay zeka bilgisayar korsanlığı için etkili bir şekilde kullanılırsa, bu muhtemelen daha da karmaşık ihlal girişimleri anlamına gelecektir. Bunun bireyler, altyapı, kurumsal casusluk ve ulusal güvenlik üzerinde etkileri vardır.”