BIST9.062,36%-1,28
USD31.215%0.01
EURO33,8726%0.09
ALTIN2.042,15%0.08
Teknoloji

ABD'de yapay zeka şirketleri güvenlik testlerini hükümete raporlayacak

ABD'de Başkan Joe Biden yönetimi, yapay zeka şirketlerinin güvenlik testi sonuçlarını hükümete bildirmesini gerektiren yeni uygulamayı yürürlüğe sokmaya hazırlanıyor.

Abone OlGoogle News
29 Ocak 2024 17:30

Beyaz Saray Yapay Zeka Konseyi, yapay zekadan kaynaklanan risklerin önlenmesine ilişkin Biden'ın 3 ay önce imzaladığı kararname kapsamında yapılan değişiklikleri değerlendirmek üzere toplanacak.

Beyaz Saray'ın yapay zeka özel danışmanı Ben Buchanan, yaptığı açıklamada, hükümetin yapay zeka sistemlerinin halka sunulmadan önce güvenli olup olmadığını bilmek istediğini ve Biden'ın da şirketlerin bu kuralı karşılaması gerektiği konusunda net olduğunu belirtti.

Buchanan, yapay zekanın potansiyelinin farkında olduklarını kaydederek, düzenleyici birimlerin bu teknolojiyi yönetmesi konusunda emin olmaya çalıştıklarını ifade etti.

ABD'de yalnızca yazılım şirketlerinin bazı güvenlik testleri yapması gerekirken, halihazırda şirketlerin böyle bir zorunluluğu bulunmuyor.

ABD yönetimi, yapay zekadan kaynaklanan riskleri önlemeyi amaçlayan kapsamlı bir kararname çıkarmış, yapay zeka güvenliği için yeni standartlar getirmişti.

Kararname kapsamında, kurumların güvenlik testleri için standartlar belirlemesi ve siber güvenlik risklerini ele alması gerekiyor.

Kişilerin dolandırıcılıktan korunması amacıyla yapay zekayla oluşturulan içeriğin tespit edilmesi ve doğrulanması için yeni kurallar getiriliyor.

Bu kapsamda, yazılımlardaki güvenlik açıklarını bulmak ve düzeltmek için gelişmiş bir siber güvenlik programının oluşturulması da hedefleniyor.

Yazma kurallarını okudum ve kabul ediyorum.600 karakter kaldı
×

Bu sayfalarda yer alan okur yorumları kişilerin kendi görüşleridir.
Yazılan yorumlar hiçbir şekilde akittv.com.tr’nin görüş ve düşüncelerini yansıtmamaktadır.
Yazılanlardan akittv.com.tr sorumlu tutulamaz.

0 Yorumlar
  • Yeniden eskiye
  • Eskiden yeniye
  • Öne Çıkanlar