EU chính thức kích hoạt Đạo luật quản lý AI
Từ ngày 1/8, Liên minh châu Âu (EU) chính thức kích hoạt Đạo luật quản lý trí tuệ nhân tạo (AI), với kỳ vọng rằng sẽ bảo vệ quyền công dân trong khi vẫn thúc đẩy đổi mới sáng tạo.
Đầu năm nay, sau các cuộc đàm phán diễn ra khá căng thẳng, EU đã thống nhất thông qua các quy tắc sâu rộng đầu tiên trên thế giới để quản lý AI, đặc biệt là các hệ thống phổ biến như ChatGPT của OpenAI. Các công ty sẽ phải tuân thủ đạo luật này vào năm 2026, tuy nhiên, một số điều khoản của luật sẽ có hiệu lực từ ngày 1/8/2024.
Đạo luật AI là gì?
Đạo luật AI (AI Act) là một phần của luật pháp EU về quản lý AI, được Ủy ban châu Âu đề xuất lần đầu tiên vào năm 2020, nhằm giải quyết những tác động tiêu cực của AI.
Đạo luật đặt ra một khuôn khổ quản lý toàn diện và hài hòa cho AI trên toàn EU, áp dụng cách tiếp cận dựa trên rủi ro để quản lý công nghệ. Đồng thời, luật sẽ tác động đến nhiều doanh nghiệp, đặc biệt là doanh nghiệp phát triển hệ thống AI; nhưng cũng có thể tác động đến doanh nghiệp không phải công ty công nghệ nhưng triển khai hoặc chỉ sử dụng AI trong một số trường hợp nhất định.
Luật áp dụng cách tiếp cận dựa trên rủi ro để quản lý AI, nghĩa là các ứng dụng khác nhau của công nghệ sẽ được quản lý khác nhau tùy thuộc vào mức độ rủi ro mà AI gây ra cho xã hội. Chẳng hạn, nhà cung cấp AI có rủi ro cao phải tiến hành đánh giá rủi ro và đảm bảo sản phẩm tuân thủ luật pháp EU trước khi ra mắt công chúng. Các hình ảnh, văn bản hay video do AI sản sinh sẽ phải được ghi rõ là sản phẩm của AI...
Có thể nói, nếu hệ thống có rủi ro cao, công ty sẽ phải thực hiện luật và nghĩa vụ chặt chẽ hơn để bảo vệ quyền công dân. Ví dụ, rủi ro đối với sức khỏe hoặc quyền lợi của người châu Âu càng cao thì các công ty càng phải có nghĩa vụ lớn hơn trong việc bảo vệ cá nhân khỏi bị tổn hại.
Ngoài ra, các lệnh cấm sử dụng AI để giám sát dựa trên tổng hợp dữ liệu và các hệ thống sử dụng thông tin sinh trắc học để suy đoán chủng tộc, tôn giáo hoặc khuynh hướng tình dục của một cá nhân sẽ được áp dụng 6 tháng sau khi Luật có hiệu lực.
Mức phạt cho các hoạt động vi phạm
Đạo luật AI của EU chia công nghệ thành các loại rủi ro, từ không thể chấp nhận - nghĩa là công nghệ sẽ bị cấm - đến mức độ rủi ro cao, trung bình và thấp.
Trong Đạo luật AI, các công ty vi phạm quy định về các hành vi bị cấm hoặc nghĩa vụ dữ liệu sẽ phải đối mặt với mức phạt từ 35 triệu euro (41 triệu USD) hoặc 7% doanh thu hằng năm trên toàn thế giới. Mức phạt sẽ tùy thuộc vào hành vi vi phạm và quy mô của công ty bị phạt. Mức phạt này cao hơn so với GDPR, luật bảo mật kỹ thuật số nghiêm ngặt của châu Âu – các công ty phải đối mặt với mức phạt lên tới 20 triệu euro hoặc 4% doanh thu toàn cầu hàng năm vì vi phạm GDPR.
Các chuyên gia dự đoán, Đạo luật AI sẽ tiếp tục gây ảnh hưởng đến toàn cầu, tuy nhiên, EU cần "mạnh tay" phạt nặng các công ty vi phạm để các quy định có tác động sâu rộng.
Các hạn chế đối với các hệ thống mô hình chung sẽ bắt đầu được giám ít nhất sau 12 tháng nữa. Các hệ thống AI tạo sinh như ChatGPT của OpenAI và Gemini của Google có 36 tháng để hoàn thiện hệ thống tuân thủ quy định.
Hồi tháng 5, EU đã thành lập văn phòng AI - gồm các chuyên gia công nghê, luật sư và nhà kinh tế - theo luật mới để đảm bảo luật được tuân thủ nghiêm ngặt. Việc giám sát tất cả mô hình AI nằm trong phạm vi của đạo luật sẽ thuộc về Văn phòng AI của EU.