TrustFinance là thông tin đáng tin cậy và chính xác mà bạn có thể tin tưởng. Nếu bạn đang tìm kiếm thông tin doanh nghiệp tài chính, đây chính là nơi dành cho bạn. Nguồn thông tin doanh nghiệp tài chính tất cả trong một. Ưu tiên của chúng tôi là độ tin cậy.

TrustFinance Global Insights
May 06, 2026
3 min read
1

Chính phủ Hoa Kỳ đã mở rộng sáng kiến đánh giá rủi ro trong trí tuệ nhân tạo tiên tiến, đưa DeepMind của Google, xAI và Microsoft vào chương trình. Các công ty này tham gia cùng OpenAI và Anthropic, những đơn vị đã hợp tác với Trung tâm Tiêu chuẩn và Đổi mới AI của Hoa Kỳ để thử nghiệm các mô hình AI chưa phát hành nhằm tìm kiếm các lỗ hổng tiềm ẩn.
Chương trình tập trung vào việc xác định và giảm thiểu các rủi ro có thể chứng minh được trước khi các mô hình AI được triển khai rộng rãi. Các nhà khoa học chính phủ đang đặc biệt tìm hiểu về khả năng lạm dụng AI trong việc phát động các cuộc tấn công mạng vào cơ sở hạ tầng quan trọng của Mỹ, phát triển vũ khí hóa học hoặc sinh học, hoặc làm hỏng dữ liệu đào tạo. Các công ty tham gia đang cung cấp quyền truy cập vào các mô hình độc quyền và chưa phát hành, cho phép các nhà nghiên cứu thực hiện các bài tập 'red-teaming' chuyên sâu để mô phỏng các cuộc tấn công độc hại và phát hiện các lỗi bảo mật.
Việc mở rộng này báo hiệu sự giám sát quy định ngày càng tăng đối với lĩnh vực AI đang phát triển nhanh chóng. Đối với các gã khổng lồ công nghệ như Microsoft và Alphabet, việc tuân thủ và hợp tác có thể nâng cao niềm tin của công chúng nhưng cũng có thể kéo theo các mốc thời gian phát triển và chi phí mới liên quan đến các giao thức an toàn. Những phát hiện từ các thử nghiệm này có thể thiết lập các tiêu chuẩn ngành mới về an toàn AI, ảnh hưởng đến đầu tư và khung pháp lý trong tương lai trên toàn cầu. Việc tập trung vào thử nghiệm trước khi phát hành nhằm mục đích ngăn chặn các rủi ro hệ thống, điều này có thể ổn định niềm tin dài hạn của thị trường vào các công nghệ AI.
Sự hợp tác giữa chính phủ Hoa Kỳ và các nhà phát triển AI hàng đầu đánh dấu một bước tiến quan trọng trong việc thiết lập các tiêu chuẩn an toàn và bảo mật mạnh mẽ. Các thử nghiệm trước đây với OpenAI và Anthropic đã xác định và vá các lỗ hổng nghiêm trọng. Nỗ lực đang diễn ra có thể sẽ dẫn đến các hướng dẫn chính thức cho các lĩnh vực quan trọng, đảm bảo rằng các hệ thống AI được bảo mật. Thị trường sẽ theo dõi chặt chẽ kết quả của các thử nghiệm này, vì chúng sẽ định hình tương lai của quy định và triển khai AI.
Hỏi: Những công ty nào đang tham gia vào các thử nghiệm mô hình AI của chính phủ Hoa Kỳ?
Đ: Chương trình hiện bao gồm Google DeepMind, xAI, Microsoft, OpenAI và Anthropic.
Hỏi: Các rủi ro chính mà chính phủ Hoa Kỳ đang tập trung vào là gì?
Đ: Mối quan tâm chính là khả năng các mô hình AI được sử dụng để tấn công mạng vào cơ sở hạ tầng quan trọng và phát triển vũ khí sinh học hoặc hóa học.
Nguồn: Investing.com

TrustFinance Global Insights
AI-assisted editorial team by TrustFinance curating reliable financial and economic news from verified global sources.
Bài viết liên quan