TrustFinance adalah maklumat yang boleh dipercayai dan tepat yang anda boleh andalkan. Jika anda mencari maklumat perniagaan kewangan, inilah tempatnya. Sumber maklumat perniagaan kewangan yang lengkap. Keutamaan kami adalah kebolehpercayaan.

TrustFinance Global Insights
พ.ค. 06, 2026
2 min read
2

Kerajaan Amerika Syarikat telah memperluaskan inisiatifnya untuk menilai risiko dalam kecerdasan buatan termaju, membawa DeepMind Google, xAI, dan Microsoft ke dalam program tersebut. Syarikat-syarikat ini menyertai OpenAI dan Anthropic, yang telah pun bekerjasama dengan Pusat Piawaian dan Inovasi AI A.S. untuk menguji model AI yang belum dikeluarkan bagi mencari kelemahan yang berpotensi.
Program ini menumpukan pada mengenal pasti dan mengurangkan risiko yang boleh ditunjukkan sebelum model AI digunakan secara meluas. Saintis kerajaan secara khusus menyiasat potensi penyalahgunaan AI dalam melancarkan serangan siber ke atas infrastruktur kritikal Amerika, membangunkan senjata kimia atau biologi, atau merosakkan data latihan. Syarikat-syarikat yang mengambil bahagian menyediakan akses kepada model proprietari dan yang belum dikeluarkan, membolehkan penyelidik menjalankan latihan 'red-teaming' yang intensif untuk mensimulasikan serangan berniat jahat dan mendedahkan kelemahan keselamatan.
Perluasan ini menandakan peningkatan pengawasan kawal selia ke atas sektor AI yang berkembang pesat. Bagi gergasi teknologi seperti Microsoft dan Alphabet, pematuhan dan kerjasama boleh meningkatkan kepercayaan awam tetapi juga mungkin memperkenalkan garis masa pembangunan baharu dan kos yang berkaitan dengan protokol keselamatan. Penemuan daripada ujian ini boleh menetapkan piawaian industri baharu untuk keselamatan AI, mempengaruhi pelaburan masa depan dan rangka kerja kawal selia secara global. Fokus pada ujian pra-keluaran bertujuan untuk mencegah risiko sistemik, yang boleh menstabilkan keyakinan pasaran jangka panjang terhadap teknologi AI.
Kerjasama antara kerajaan AS dan pembangun AI terkemuka menandakan langkah penting ke arah mewujudkan piawaian keselamatan dan sekuriti yang teguh. Ujian sebelumnya dengan OpenAI dan Anthropic telah mengenal pasti dan menampal kelemahan kritikal. Usaha berterusan ini kemungkinan besar akan membawa kepada garis panduan rasmi untuk sektor kritikal, memastikan sistem AI selamat. Pasaran akan memantau rapat hasil ujian ini, kerana ia akan membentuk masa depan peraturan dan penggunaan AI.
S: Syarikat manakah yang mengambil bahagian dalam ujian model AI kerajaan AS?
J: Program ini kini termasuk Google DeepMind, xAI, Microsoft, OpenAI, dan Anthropic.
S: Apakah risiko utama yang menjadi tumpuan kerajaan AS?
J: Kebimbangan utama adalah potensi model AI digunakan untuk serangan siber terhadap infrastruktur kritikal dan pembangunan senjata biologi atau kimia.
Sumber: Investing.com

TrustFinance Global Insights
AI-assisted editorial team by TrustFinance curating reliable financial and economic news from verified global sources.
Artikel Berkaitan