California ban hành luật quản lý chatbot AI “SB243”

(Hoa Kỳ)

Từ San Francisco

23/10/2025

Vào ngày 13 tháng 10, Thống đốc Gavin Newsom (Đảng Dân chủ) của bang California, Hoa Kỳ đã công bố dự luật quản lý “chatbot đồng hành”, hệ thống tương tác sử dụng trí tuệ nhân tạo (AI)SB243 (Đạo luật Chatbot đồng hành)Mở trong cửa sổ mới, trang web bên ngoài

Luật này định nghĩa AI tổng hợp hình thành các mối quan hệ xã hội và cảm xúc với người dùng thông qua nhiều cuộc trò chuyện dưới dạng "chatbot đồng hành" và nhằm mục đích giải quyết nguy cơ bị phụ thuộc và tác động tâm lý đối với con người khi AI tham gia vào các cuộc trò chuyện đầy cảm xúc như con người Tuy nhiên, các bot có mục đích sử dụng hạn chế như dịch vụ khách hàng và hỗ trợ kinh doanh, chức năng phản hồi trong trò chơi (những bot không đề cập đến chủ đề tâm lý hoặc tình dục) và trợ lý giọng nói (những bot không hình thành mối quan hệ tình cảm) đã bị loại trừ Đây là luật điều chỉnh chatbot AI đầu tiên ở Hoa Kỳ và dự kiến ​​có hiệu lực từ ngày 1 tháng 1 năm 2026

Người vận hành phải (1) nêu rõ chatbot là AI (làm rõ rằng chatbot được tạo ra nhân tạo chứ không phải con người), (2) duy trì và công bố các giao thức ứng phó với khủng hoảng (cần thực hiện các biện pháp ứng phó trong trường hợp người dùng có ý định tự tử hoặc tự làm hại bản thân) (3) các nghĩa vụ đặc biệt đối với người dùng vị thành niên (thông báo cho người dùng rằng họ là AI và yêu cầu họ nghỉ ngơi ba giờ một lần, đồng thời thực hiện các biện pháp ngăn chặn việc tạo ra nội dung khiêu dâm và bạo lực) và (4) nghĩa vụ báo cáo bắt đầu từ ngày 1 tháng 1 năm 2027 (báo cáo số lượng phản hồi liên quan đến tự tử cho văn phòng phòng chống tự tử của tiểu bang) Trong trường hợp vi phạm, ngoài việc xin lệnh cấm, nạn nhân có thể yêu cầu bồi thường thiệt hại thực tế (bao gồm phí luật sư và chi phí kiện tụng) hoặc 1000 USD cho mỗi lần vi phạm, tùy theo mức nào cao hơn

Theo báo cáo, luật này được ban hành nhằm giải quyết một số trường hợp trẻ vị thành niên bị cáo buộc đã cố gắng tự tử sau khi tương tác với chatbot AI Thống đốc Newsom nhấn mạnh rằng "sự an toàn của trẻ em không phải để bán" và nhấn mạnh tầm quan trọng của việc đưa ra các biện pháp bảo vệ đạo đức khi AI nhanh chóng thâm nhập vào xã hội Nó cũng đã nhận được sự hỗ trợ từ ngành công nghiệp, với nhà phát triển AI đàm thoại OpenAI của Hoa Kỳ (có trụ sở tại San Francisco, California) gọi sáng kiến ​​này là “bước tiến đáng kể hướng tới các tiêu chuẩn an toàn AI”

California đang nỗ lực đảm bảo tính an toàn và minh bạch trong việc sử dụng AI (California ban hành SB53, luật tiết lộ an toàn), với việc thực thi luật này, các doanh nghiệp AI dự kiến ​​sẽ buộc phải xây dựng các hệ thống tuân thủ mới trong thực tế, chẳng hạn như thiết kế thông báo cho người dùng và phát triển các thuật toán ứng phó với khủng hoảng

(Miki Matsui)

(Hoa Kỳ)

Tóm lược kinh doanh 26c849f1c294995c