ABD merkezli teknoloji şirketi Anthropic, yapay zeka modellerinin "felaket boyutunda" sonuçlar doğuracak şekilde kullanılmasını önlemek için stratejik bir adım attı. LinkedIn üzerinden yayınlanan iş ilanına göre şirket, kimyasal silahlar ve yüksek etkili patlayıcılar konusunda derin uzmanlığa sahip profesyonelleri bünyesine katmayı hedefliyor.
Adaylarda aranan kritik nitelikler
Şirket, başvuru yapacak uzmanlardan "kimyasal silahlar ve/veya patlayıcı savunması" alanında en az beş yıllık tecrübe talep ediyor. Ayrıca adayların, kamuoyunda "kirli bomba" olarak bilinen radyolojik dağıtım cihazları hakkında teknik bilgi sahibi olması şart koşuluyor.
Sektörde güvenlik yarışı hızlanıyor
Yapay zeka güvenliği konusunda benzer adımlar diğer teknoloji devlerinden de geliyor. ChatGPT'nin geliştiricisi OpenAI da geçtiğimiz günlerde yayımladığı ilanda "biyolojik ve kimyasal risk" alanında uzman araştırmacılar aradığını duyurmuştu. Bu durum, sektör genelinde güvenlik protokollerinin sıkılaştırıldığını gösteriyor.
