Đạo luật AI của EU được thông qua vào ngày 21 tháng 5 năm 2024. Những gì được quảng cáo là một chính sách mẫu mực và độc đáo trên thực tế chỉ là một con hổ giấy. Ngay cả khi ý chí quản lý lĩnh vực trí tuệ nhân tạo (AI) dường như đã xuất hiện, thì rõ ràng vẫn thiếu việc thực hiện nhất quán. Các điểm riêng lẻ tiếp tục được đàm phán và trong một số trường hợp được cải thiện. Nhưng có một điều đã rõ ràng: các nguyên tắc cơ bản đã được cố định. Hệ thống AI nên được phân loại theo các loại rủi ro. Các ứng dụng có rủi ro cao phải tuân theo các yêu cầu nghiêm ngặt, trong khi các hệ thống có rủi ro thấp hầu như không phải lo sợ bất kỳ hạn chế nào.
Tất nhiên, Đạo luật AI của EU là duy nhất và chắc chắn sẽ được dùng làm hình mẫu. Suy cho cùng, quy định tồi vẫn tốt hơn là không có quy định nào cả. Nhưng trong tương lai sẽ có ít khoảng trống và sơ hở hơn. Nếu bạn xem xét các quy định một cách chi tiết, sẽ nảy sinh nghi ngờ rằng các tổ chức vận động hành lang lớn cũng có thể đã ảnh hưởng đến các cuộc đàm phán. Những rủi ro của AI không được kiểm soát rõ ràng đã được nhận ra – ít nhất là bởi một số nghị sĩ ở Brussels. Nhưng bạn dường như không thực sự muốn đặt ra bất kỳ hạn chế nghiêm khắc nào đối với bất kỳ ai. Các nhóm lợi ích đầy quyền lực vẫn có thể lợi dụng những kẽ hở pháp lý để bảo vệ mô hình kinh doanh của mình.
Việc phân loại đóng một vai trò quan trọng trong việc xác định xem chính những nhóm lợi ích này đã và đang tiếp tục phát huy ảnh hưởng của mình. Các công dân của EU một lần nữa được nhắc nhở về ý chí chính trị có thiện chí sẽ xung đột với nguồn vốn lớn như thế nào. Việc phân loại được cho là rủi ro thấp có thể đáng tiền – đặc biệt nếu bạn cố gắng phân loại mô hình kinh doanh của riêng mình vào loại rủi ro thấp nhất nhờ vào sự chỉ trích liên tục từ các hiệp hội vận động hành lang.
Lạm dụng dữ liệu thông qua phương tiện truyền thông xã hội
Các ứng dụng có rủi ro thấp thường được sử dụng bởi mạng xã hội hoặc cho quảng cáo được cá nhân hóa. Các công ty lớn đằng sau những “con bạch tuộc dữ liệu” này miêu tả những hệ thống như vậy hầu như vô hại và được hỗ trợ bởi một lực lượng vận động hành lang mạnh mẽ. Đối với chúng ta, với tư cách là người tiêu dùng, câu hỏi được đặt ra: Liệu điều này có thực sự vô hại như những người được hưởng lợi từ sự phân loại này tuyên bố không?
Chính những công ty được phân loại là “rủi ro thấp” mới có tác động đáng kể đến cuộc sống hàng ngày của chúng ta. Ngày nay, ai không sử dụng một trong những nền tảng chính để kết nối, đánh bạc hoặc tìm đối tác mới? Nhưng dữ liệu được thu thập ở mọi nơi, tạo cơ sở cho việc phân tích người dùng và nhắm mục tiêu vi mô. Những ứng dụng dường như vô hại này đang xâm nhập sâu hơn vào quyền riêng tư của chúng ta và mở ra tiềm năng lớn cho việc thao túng thông qua quảng cáo có chủ đích. Dữ liệu được thu thập cũng có thể được sử dụng bởi các bên thứ ba hoặc thậm chí các cơ quan chính phủ. Nếu không có quy định chặt chẽ hơn, các công ty có thể đưa ra dự đoán hành vi toàn diện về người dùng của họ, điều này có thể mở ra cơ hội cho sự thao túng thông qua ảnh hưởng có chủ đích. Một trường hợp đã được công khai là vụ bê bối Cambridge Analytica, trong đó dữ liệu từ hàng triệu người dùng Facebook được sử dụng để gây ảnh hưởng đến các chiến dịch chính trị mà không có sự đồng ý của họ.
Hệ thống tự học
Một lỗ hổng rất nghiêm trọng khác trong Đạo luật AI của EU có thể được nhìn thấy trong lĩnh vực hệ thống tự học và tự trị. Đạo luật yêu cầu các hệ thống phải được kiểm tra và phân loại trước khi sử dụng – một cách tiếp cận tốt, nhưng nó chưa đủ hiệu quả đối với các hệ thống tự động và tự học. Các hệ thống này phát triển độc lập và có thể thay đổi mức độ rủi ro trong một khoảng thời gian rất ngắn mà không cần phải kiểm tra lại.
Điều này có nghĩa là các thuật toán của hệ thống tự trị có thể thay đổi theo cách mang lại nhiều lợi nhuận hơn nhưng đồng thời kém đạo đức hơn. Ví dụ: một thuật toán truy cập dữ liệu bảo hiểm y tế có thể quyết định tính phí khấu trừ cho những người trên 50 tuổi cho các dịch vụ miễn phí. Điều này có thể đơn giản dựa trên cơ sở rằng nhóm tuổi này có nhiều khả năng sử dụng dịch vụ hơn những người trẻ tuổi về mặt thống kê.
Hệ thống vũ khí tự động
Tuy nhiên, lỗ hổng nghiêm trọng và nguy hiểm nhất trong Đạo luật AI của EU nằm ở lĩnh vực hệ thống vũ khí tự động. Các hệ thống mật trước đây có thể bị lạm dụng; một máy bay không người lái giám sát ban đầu vô hại có thể được lập trình lại thành máy bay không người lái tấn công. Với những khoản đầu tư đáng kể vào công nghệ vũ khí tự động của các công ty lớn trên toàn cầu, người ta chỉ có thể suy đoán xem những gì thực sự có thể xảy ra với các hệ thống này. Tuy nhiên, người ta lo ngại rằng những tiến bộ trong hệ thống tự hành cuối cùng có thể gây ra hậu quả thảm khốc. Một ví dụ về điều này có thể là máy bay không người lái tự động có thể đưa ra quyết định độc lập về các cuộc tấn công mục tiêu, điều này có thể dẫn đến những hậu quả không lường trước được, đặc biệt là ở các vùng chiến sự.
Phạm vi giới hạn
Một điểm yếu khác của Đạo luật AI của EU là phạm vi hạn chế của nó. Các quy định này chỉ áp dụng riêng cho các công ty có trụ sở tại EU và các công ty cung cấp sản phẩm và dịch vụ cụ thể cho EU. Tuy nhiên, các tập đoàn quốc tế có trung tâm dữ liệu hoặc bộ phận phát triển bên ngoài EU có thể khai thác chính xác những khoảng trống này. Các công ty có trụ sở tại EU cũng có thể thiết lập địa điểm ở các nước thứ ba, nơi không có quy định nghiêm ngặt về AI. Điều này sẽ cho phép họ phát triển hơn nữa dữ liệu và mô hình bên ngoài EU, sau đó nhập chúng vào EU, do đó phần lớn phá vỡ các quy định của Châu Âu.
Chiến lược này gợi nhớ đến cách tiếp cận nổi tiếng: “Nếu tôi không được phép theo dõi đồng bào của mình, tôi sẽ ủy quyền cho một bang khác làm việc đó và gửi thông tin cho tôi.”
Tính minh bạch
Quy định tốt nhất có ích gì nếu thiếu minh bạch? Do Đạo luật AI của EU không quy định chung các yêu cầu về tính minh bạch nên trong một số trường hợp nhất định, các công ty có thể giữ bí mật thông tin chi tiết về hệ thống của họ với lý do bảo vệ bí mật thương mại. Mặc dù có thể hiểu rằng các nhà lãnh đạo thị trường lớn muốn bảo vệ quy trình nội bộ của họ, nhưng sự thiếu minh bạch này gây ra những rủi ro đáng kể. Các nền tảng lớn có thể dựa vào việc bảo vệ bí mật thương mại của họ để lách các yêu cầu về tính minh bạch. Điều này sẽ cho phép họ phát triển các chiến lược thao túng và phân tích chuyên sâu về người dùng mà người dùng hoặc cơ quan chức năng không thể hiểu được cơ chế đằng sau chúng.
Công nghệ nhận diện khuôn mặt
Mặc dù Đạo luật AI của EU quy định các quy định trong lĩnh vực hệ thống nhận dạng khuôn mặt và sinh trắc học nhưng nó không áp đặt lệnh cấm chung. Tuy nhiên, với tiềm năng sử dụng cho việc giám sát hàng loạt, một quy định rõ ràng và hạn chế hơn là rất cần thiết. Ví dụ, có các trường hợp ngoại lệ đối với các ứng dụng bảo mật cá nhân và hệ thống thực thi pháp luật có thể sử dụng các dịch vụ bảo mật cá nhân cho mục đích của chúng. Họ có thể lập luận rằng rủi ro cao trong công việc của họ là lý do biện minh cho việc sử dụng công nghệ này.
Ngoài ra còn có những khoảng trống về ngôn ngữ có thể cho phép các công ty bảo mật thiết lập các công nghệ giám sát. Việc sử dụng nhận dạng khuôn mặt trong công việc của cảnh sát cho thấy nó nguy hiểm đến mức nào. Việc nhận dạng sai sẽ biến thành bi kịch cá nhân nhanh đến mức nào có thể phá hủy toàn bộ sự tồn tại? Những cải tiến cần được thực hiện khẩn cấp ở đây để ngăn chặn sự giám sát rộng rãi.
Phần kết luận
Những điểm yếu được đề cập cho thấy rõ rằng Đạo luật AI của EU không mang lại sự bảo mật toàn diện cho tương lai. Thay vào đó, các công ty lớn nổi tiếng có thể tự tạo cho mình vẻ ngoài minh bạch và quản lý AI mà không thực sự hành động theo những nguyên tắc này. Cần có những quy tắc được áp dụng nhất quán và bình đẳng cho tất cả mọi người. Bí mật thương mại không được sử dụng làm cái cớ cho sự thiếu minh bạch. Các công ty sử dụng dữ liệu của người dùng để tối đa hóa lợi nhuận phải tiết lộ cách sử dụng dữ liệu này và lợi nhuận được tạo ra từ dữ liệu đó. Điều này sẽ làm cho nhiều người thấy rõ hơn rằng các nền tảng truyền thông xã hội được cho là miễn phí không có nghĩa là vị tha.
Tất nhiên, các chính trị gia đã dựa vào nhiều chuyên gia khi soạn thảo đạo luật này. Tuy nhiên, câu hỏi vẫn là các chuyên gia này phục vụ ai. Chắc chắn có thể giả định rằng chính các tác nhân thị trường có thể đã quyết định các chính trị gia nên đặt ra những quy tắc nào. Có thể so sánh với một con sâu cải trang quyết định thời gian câu cá.
Có mối lo ngại lớn rằng EU có thể bị bỏ lại phía sau trên thế giới khi nói đến phát triển AI. Nỗi lo sợ này là hoàn toàn chính đáng, nhưng về cơ bản sẽ không mang lại những cách tiếp cận tốt để quản lý việc trở thành cừu đội lốt sói thông qua các trường hợp ngoại lệ và sơ hở. AI có thể mang lại những tiến bộ đáng kể, đặc biệt là trong lĩnh vực chăm sóc sức khỏe, có thể mang lại lợi ích chung, chẳng hạn như trong việc phát hiện sớm các bệnh nghiêm trọng, trong đó AI có thể đóng góp vô giá. Đồng thời, chúng ta không được quên rằng trí tuệ nhân tạo cũng phù hợp để tạo hồ sơ người dùng, chẳng hạn bằng cách suy ra lối sống không lành mạnh từ hành vi mua hàng.
Tóm lại, mặc dù Đạo luật AI của EU thể hiện bước đầu tiên đi đúng hướng, nhưng nó vẫn có những thiếu sót sâu rộng cần được giải quyết khẩn cấp. Các ví dụ được đề cập, từ vụ bê bối lạm dụng dữ liệu đến hậu quả thảm khốc tiềm ẩn của hệ thống vũ khí tự động, cho thấy rõ rằng những rủi ro của trí tuệ nhân tạo không được kiểm soát không chỉ là lý thuyết.
Điều cần thiết là chúng ta với tư cách là một xã hội phải cùng nhau hành động để tạo ra các quy định thực sự bảo vệ chứ không chỉ mang lại vẻ ngoài an ninh. Một quy định rõ ràng, toàn diện và có thể thực thi là rất quan trọng không chỉ vì lợi ích của công dân EU mà còn vì hòa bình và ổn định toàn cầu.
Thời gian là điều cốt yếu: trong một thế giới nơi sự phát triển công nghệ đang phát triển nhanh chóng, chúng ta phải đảm bảo rằng các nguyên tắc đạo đức và việc bảo vệ nhân quyền không bị bỏ lại phía sau. Chúng ta hãy cùng nhau chiến đấu vì một tương lai trong đó AI được sử dụng một cách có trách nhiệm vì lợi ích lớn hơn và đi ngược lại lợi ích của các tập đoàn lớn và các nhà vận động hành lang. Đây là cách duy nhất chúng ta có thể đảm bảo rằng trí tuệ nhân tạo vẫn là một công cụ tốt và không trở thành mối đe dọa cho xã hội của chúng ta.
Nguồn:
- Thông tin chung về Đạo luật AI
- Trang web chính thức của EU về quy trình lập pháp: Nghị viện châu Âu – Đạo luật AI
- Mô tả Đạo luật AI và tổng quan chung: Ủy ban Châu Âu – Đạo luật Trí tuệ nhân tạo
- Phân loại rủi ro và khoảng trống cho các hệ thống “rủi ro thấp”
- Phân loại rủi ro trong Đạo luật AI và những điểm yếu của nó:
- Chi tiết về phân loại rủi ro AI và các ngoại lệ của chúng (xem Điều 52 và phần tiếp theo của Đạo luật AI).
- Các bài viết hoặc phân tích về điểm yếu trong các quy định “rủi ro thấp”: EDRi (Quyền kỹ thuật số châu Âu) – Phân tích quan trọng của Đạo luật AI
- Bài viết chuyên môn về rủi ro “rủi ro thấp” đối với đạo đức dữ liệu (đặc biệt phù hợp với các nền tảng truyền thông xã hội):
- Phân loại rủi ro trong Đạo luật AI và những điểm yếu của nó:
- Hệ thống tự học và sự phát triển khó lường của AI
- Giải thích về quy định của hệ thống tự học và những điểm yếu của chúng:
- Các quan điểm khác nhau về vấn đề này từ các nhà nghiên cứu AI và tạp chí chuyên ngành: Blog Chính sách AI
- Bài viết kỹ thuật về rủi ro và vấn đề của hệ thống học tập trong các lĩnh vực được quản lý: IEEE – AI và những thách thức của hệ thống tự học
- Giải thích về quy định của hệ thống tự học và những điểm yếu của chúng:
- Những thách thức bên ngoài và khoảng cách quốc tế
- Thảo luận về vấn đề ứng dụng ngoài lãnh thổ và các vấn đề gây ra bởi các tiêu chuẩn toàn cầu không đầy đủ:
- Các phân tích toàn diện về phạm vi tiếp cận toàn cầu và các vấn đề ngoài lãnh thổ của Đạo luật AI: Carnegie Europe – Chính sách công nghệ toàn cầu của Châu Âu
- Các ấn phẩm về lỗ hổng của các công ty đa quốc gia và luồng dữ liệu của họ:
- Thảo luận về vấn đề ứng dụng ngoài lãnh thổ và các vấn đề gây ra bởi các tiêu chuẩn toàn cầu không đầy đủ:
- Yêu cầu về tính minh bạch và bí mật thương mại
- Bài viết về yêu cầu minh bạch trong Đạo luật AI và khả năng dựa vào “bí mật thương mại”:
- EDRi (Quyền kỹ thuật số châu Âu) và Algorithm Watch phân tích chi tiết những điểm yếu này:
- Bài viết về yêu cầu minh bạch trong Đạo luật AI và khả năng dựa vào “bí mật thương mại”:
- Hệ thống giám sát và sinh trắc học hàng loạt
- Thảo luận về khả năng sử dụng hệ thống sinh trắc học và các vấn đề mà các trường hợp ngoại lệ có thể tạo ra:
- Bài viết chuyên môn về vấn đề giám sát và nới lỏng quy định sinh trắc học trong Đạo luật AI: Quyền riêng tư quốc tế – Nhận dạng khuôn mặt và giám sát hàng loạt
- Nhận xét của Hiệp hội Quyền Tự do (GFF) về giám sát sinh trắc học ở EU: Hiệp hội Quyền Tự do – Tuyên bố về giám sát sinh trắc học
- Thảo luận về khả năng sử dụng hệ thống sinh trắc học và các vấn đề mà các trường hợp ngoại lệ có thể tạo ra: