California ban hành luật công bố an toàn AI đầu tiên của quốc gia, "SB53"
(chúng tôi)
San Francisco
ngày 3 tháng 10 năm 2025
Thống đốc truyền giáo Gavin Newsom của California, Hoa Kỳ, đã công bố vào ngày 29 tháng 9 rằng luật "AI" đảm bảo sự an toàn và minh bạch của các mô hình Trí tuệ nhân tạo tiên tiến (AI)Đạo luật công bố an toàn AI (SB53)Tính minh bạch trong Đạo luật Trí tuệ Nhân tạo Frontier "đã được ký và Đạo luật đã được thông qua Đây sẽ là luật tiểu bang toàn diện đầu tiên ở Hoa Kỳ để nhắm mục tiêu các công nghệ AI tiên tiến Nó sẽ có hiệu lực vào ngày 1 tháng 1 năm 2026
Dự luật này định nghĩa một mô hình nền tảng đã được đào tạo với số lượng tính toán từ 10 trở lên là "mô hình biên giới", và yêu cầu các nhà phát triển lớn có doanh thu hàng năm hơn 500 triệu đô la để tiết lộ các kế hoạch an toàn, báo cáo các sự cố nghiêm trọng và bảo vệ những người tố giác Vi phạm sẽ dẫn đến các hình phạt dân sự lên tới 1 triệu đô la mỗi trường hợp
"Rủi ro thảm khốc" được nhắm mục tiêu đề cập đến các sự kiện liên quan đến hơn 50 trường hợp tử vong hoặc thiệt hại hơn 1 tỷ đô la, và dự kiến sẽ hỗ trợ sản xuất vũ khí hóa học, sinh học và hạt nhân, hành vi của quy mô lớn Nó đã trở nên bắt buộc phải báo cáo các sự cố nghiêm trọng trong vòng 15 ngày và rủi ro sắp xảy ra trong vòng 24 giờ Hơn nữa, nhà nước đã thành lập một cơ sở hạ tầng đám mây công cộng có tên là "Calcompute" tại Đại học California, cung cấp các nguồn lực điện toán quy mô lớn với chi phí thấp cho các nhà nghiên cứu và khởi nghiệp, và được định vị như một phần của chiến lược công nghiệp để "dân chủ hóa tài nguyên điện toán AI"
Bối cảnh là "Đạo luật đổi mới công nghệ an toàn và an toàn cho các hệ thống AI hiện đại (SB1047)" "Thống đốc Newsom đã phủ quyết vào năm 2024 (Thống đốc Mỹ California từ chối dự luật an) Dự luật đã đặt các công ty AI trực tiếp trách nhiệm đối với các rủi ro thảm khốc, nhưng Thống đốc đã phủ quyết dự luật, nói rằng: "Đó là một phương pháp quá nghiêm ngặt và không phải là một phương pháp tối ưu" Đáp lại, SB53 đã chuyển trọng tâm của mình từ việc theo đuổi trách nhiệm sang "đảm bảo tính minh bạch" và được sửa đổi thành một nghĩa vụ khả thi "Chúng tôi đã đạt được sự cân bằng sẽ đảm bảo sự phát triển của ngành trong khi bảo vệ cộng đồng", Thống đốc Newsom nói trong một tuyên bố
Mặc dù phản ứng của ngành không đồng đều, phe đối lập đã suy yếu so với khi nó ở với SB1047 Theo tạp chí chính trị Politico, Open AI, ban đầu phản đối việc ký kết công ty phát triển AI, được đánh giá là "California hài hòa với chính phủ liên bang", và công ty truyền thông xã hội lớn Meta cũng coi nó là "các quy định cân bằng" Anthropic, một công ty khởi nghiệp AI, đã bày tỏ sự hỗ trợ ngay từ đầu Trong khi đó, đầu tư mạo hiểm Andreesen Horowitz và các nhóm vận động hành lang công nghiệp công nghệ vẫn còn quan trọng (Politico, ngày 29 tháng 9)
SB53, Đạo luật công bố an toàn AI đầu tiên ở Hoa Kỳ, dựa trên việc đảm bảo tính minh bạch, được đặt thành tiền lệ cho các tiêu chuẩn quốc gia và có khả năng ảnh hưởng đến luật AI ở các tiểu bang khác trong tương lai Trong một tuyên bố, Thống đốc Newsom nhấn mạnh rằng "Tương lai sẽ bắt đầu ở đây tại California"
(Lưu ý 2) Flops (hoạt động dấu phẩy động mỗi giây) là một đơn vị công suất xử lý của máy tính và thể hiện khả năng thực hiện các hoạt động dấu phẩy động mỗi giây
(Matsui Miki)
(US)
Tin tức kinh doanh 6537F3596CE4BCE1