TrustFinance adalah informasi yang dapat dipercaya dan akurat yang dapat Anda andalkan. Jika Anda mencari informasi bisnis keuangan, ini adalah tempatnya. Sumber informasi bisnis keuangan yang lengkap. Prioritas kami adalah keandalan.

TrustFinance Global Insights
मई ०६, २०२६
2 min read
3

Pemerintah Amerika Serikat telah memperluas inisiatifnya untuk menilai risiko dalam kecerdasan buatan tingkat lanjut, dengan melibatkan Google DeepMind, xAI, dan Microsoft ke dalam program tersebut. Perusahaan-perusahaan ini bergabung dengan OpenAI dan Anthropic, yang sebelumnya telah berkolaborasi dengan Pusat Standar dan Inovasi AI AS untuk menguji model AI yang belum dirilis guna mencari potensi kerentanan.
Program ini berfokus pada identifikasi dan mitigasi risiko yang dapat ditunjukkan sebelum model AI digunakan secara luas. Para ilmuwan pemerintah secara khusus menyelidiki potensi penyalahgunaan AI dalam melancarkan serangan siber terhadap infrastruktur penting Amerika, mengembangkan senjata kimia atau biologi, atau merusak data pelatihan. Perusahaan-perusahaan yang berpartisipasi menyediakan akses ke model-model eksklusif dan yang belum dirilis, memungkinkan para peneliti untuk melakukan latihan 'red-teaming' intensif guna mensimulasikan serangan berbahaya dan mengungkap kelemahan keamanan.
Perluasan ini menandakan peningkatan pengawasan regulasi terhadap sektor AI yang berkembang pesat. Bagi raksasa teknologi seperti Microsoft dan Alphabet, kepatuhan dan kolaborasi dapat meningkatkan kepercayaan publik, tetapi juga dapat memperkenalkan jadwal pengembangan dan biaya baru yang terkait dengan protokol keamanan. Temuan dari pengujian ini dapat menetapkan standar industri baru untuk keamanan AI, memengaruhi investasi masa depan dan kerangka regulasi secara global. Fokus pada pengujian pra-rilis bertujuan untuk mencegah risiko sistemik, yang dapat menstabilkan kepercayaan pasar jangka panjang terhadap teknologi AI.
Kolaborasi antara pemerintah AS dan pengembang AI terkemuka menandai langkah signifikan menuju penetapan standar keamanan dan keselamatan yang kuat. Pengujian sebelumnya dengan OpenAI dan Anthropic telah mengidentifikasi dan menambal kerentanan kritis. Upaya yang berkelanjutan ini kemungkinan akan mengarah pada pedoman formal untuk sektor-sektor penting, memastikan bahwa sistem AI aman. Pasar akan memantau dengan cermat hasil pengujian ini, karena akan membentuk masa depan regulasi dan penerapan AI.
T: Perusahaan mana saja yang berpartisipasi dalam pengujian model AI pemerintah AS?
J: Program ini sekarang mencakup Google DeepMind, xAI, Microsoft, OpenAI, dan Anthropic.
T: Apa risiko utama yang menjadi fokus pemerintah AS?
J: Kekhawatiran utama adalah potensi model AI digunakan untuk serangan siber terhadap infrastruktur penting dan pengembangan senjata biologis atau kimia.
Sumber: Investing.com

TrustFinance Global Insights
AI-assisted editorial team by TrustFinance curating reliable financial and economic news from verified global sources.
Artikel Terkait