Mẹo nhỏ: Để tìm kiếm chính xác tin bài của nhanquyenvn.org, hãy search trên Google với cú pháp: "Từ khóa" + "nhanquyenvn.org". Tìm kiếm ngay
15550

Cần khẩn cấp ban hành các quy định AI toàn cầu nhằm đảm bảo an toàn cho con người trong tương lai

 

Ngày 4/6/2023, tờ Global Times đăng bài của Giáo sư Viện Tự động hóa của Viện Hàn lâm Khoa học Trung Quốc Zeng Yi, ông cũng là chuyên gia trong Nhóm chuyên gia đặc biệt của UNESCO về đạo đức AI  với lời kêu gọi cần ưu tiên khẩn cấp ban hành quy định toàn cầu về AI để đảm bảo an toàn cho con người trong tương lai

Trí tuệ nhân tạo (AI) chắc chắn là động lực cho sự tiến bộ của xã hội, đặc biệt là một trong những công nghệ hỗ trợ chính để thúc đẩy sự phát triển bền vững toàn cầu. Tuy nhiên, điều này không có nghĩa là AI không tiềm ẩn những rủi ro hoặc nhu cầu tối đa hóa lợi ích của AI khiến chúng ta bỏ qua những rủi ro tiềm ẩn đó. Quan tâm và kiểm soát các rủi ro về an toàn của AI không phải để cản trở sự phát triển và ứng dụng của AI mà là để đảm bảo công nghệ AI phát triển ổn định và lành mạnh.

Tuyên bố chung gần đây của các học giả quốc tế và chuyên gia trong ngành có tiêu đề “Tạm dừng các thí nghiệm AI khổng lồ: “Thư ngỏ” và “Tuyên bố về rủi ro AI” không nhằm mục đích cản trở sự phát triển của AI, mà là khám phá các lộ trình cho sự phát triển ổn định và lành mạnh của nó .

Hầu hết mọi người mong đợi sự phát triển và sử dụng AI để mang lại lợi ích cho nhân loại. Họ muốn tận hưởng những lợi thế mà nó mang lại chứ không phải hứng chịu những rủi ro mà nó có thể gây ra, chưa nói đến những rủi ro hiện hữu. Do đó, cả xã hội loài người có quyền biết về những nguy cơ tiềm ẩn của AI và các nhà phát triển AI có nghĩa vụ đảm bảo rằng AI không gây ra các mối đe dọa hiện hữu cho nhân loại, ít nhất là bằng cách giảm thiểu khả năng xảy ra những rủi ro của AI  bằng nỗ lực của tất cả các bên liên quan. Hiện tại, có lẽ chỉ một thiểu số ký vào tuyên bố này để nâng cao nhận thức cộng đồng, nhưng cuối cùng, sẽ là đa số tham gia khi đối mặt với thách thức.

Những rủi ro tồn tại tiềm ẩn do đại dịch, chiến tranh hạt nhân và AI mang đến cho nhân loại có một điểm chung: Chúng khó dự đoán chính xác; chúng có phạm vi tác động rộng; chúng quan tâm đến lợi ích của toàn nhân loại; và chúng thậm chí còn sở hữu khả năng gây chết người trên diện rộng. Về những rủi ro hiện hữu mà AI có thể gây ra cho con người, có ít nhất hai khả năng: một là lo ngại dài hạn về AI và hai là rủi ro ngắn hạn.

Về lâu dài, khi Trí tuệ tổng hợp nhân tạo (AGI) và siêu trí tuệ xuất hiện, mức độ thông minh của chúng có thể vượt xa con người, nhiều người tin rằng siêu trí tuệ sẽ sớm cạnh tranh tài nguyên với con người và thậm chí có thể đe dọa sự sống còn của loài người. Tuy nhiên, mối quan tâm ngắn hạn về AI là điều chúng ta cần tập trung khẩn cấp hơn. Vì AI đương đại chỉ đơn thuần là một công cụ xử lý thông tin có vẻ thông minh, không có sự hiểu biết hoặc trí thông minh thực sự, nên nó có thể mắc lỗi theo những cách mà con người không thể đoán trước được.

Khi một hoạt động nào đó đe dọa đến sự sống còn của con người, AI không hiểu con người là gì, sự sống và cái chết là gì, cũng như rủi ro sinh tồn có nghĩa là gì. Trong một kịch bản như vậy, AI rất có thể không có khả năng “nhận ra” nó và con người có thể không nhận thức được nó kịp thời, gây ra mối đe dọa lớn đối với sự tồn vong của loài người.

Cũng rất có khả năng AI có thể khai thác những điểm yếu của con người để gây ra một cuộc khủng hoảng chết người đối với sự sống còn của con người, chẳng hạn như khai thác và làm trầm trọng thêm sự thù địch, định kiến ​​và hiểu lầm giữa con người với nhau và mối đe dọa của vũ khí tự động chết người dựa trên AI đối với cuộc sống con người. AI như vậy có thể gây rủi ro cho sự sống còn của con người ngay cả khi chưa đạt đến giai đoạn AGI hoặc siêu trí tuệ. Loại AI này rất có thể bị mọi người sử dụng, lạm dụng và lạm dụng một cách ác ý và rủi ro gần như không thể dự đoán và kiểm soát.

Đặc biệt, những tiến bộ gần đây trong AI cho phép các hệ thống AI khai thác dữ liệu và thông tin ở quy mô internet. Thông tin sai lệch tổng hợp do AI tạo ra đã làm giảm đáng kể lòng tin của xã hội. Với sự kết nối của tất cả mọi thứ thông qua truyền thông mạng, các rủi ro liên quan có thể được phóng đại trên phạm vi toàn cầu.

Cuộc chạy đua phát triển AI hiện nay đang diễn ra sôi nổi, trong khi việc ngăn ngừa các rủi ro về an toàn và đạo đức của AI đang bị chậm chễ. “Tuyên bố về rủi ro AI” trước tiên sẽ gây được tiếng vang với các nhà phát triển AI, những người nên giải quyết càng nhiều rủi ro an toàn tiềm ẩn càng tốt bằng cách phát triển và đưa ra các giải pháp an toàn AI. Thứ hai, cần tối đa hóa nhận thức về các rủi ro an toàn AI tiềm ẩn giữa tất cả các bên liên quan, bao gồm nhưng không giới hạn ở các nhà phát triển, người dùng và những người triển khai nó, bao gồm chính phủ, công chúng và giới truyền thông, biến tất cả các bên liên quan thành những người tham gia bảo vệ sự phát triển ổn định và lành mạnh của AI.

Hơn nữa, đối với tất cả các khả năng mà AI có thể gây ra rủi ro hiện hữu cho con người, chúng ta nên tiến hành nghiên cứu kỹ lưỡng và thử nghiệm nghiêm ngặt để giảm thiểu những rủi ro này ở mức độ lớn nhất. Để giải quyết các mối đe dọa hiện hữu mà AI mang đến cho con người và đảm bảo AI phát triển một cách có đạo đức và an toàn, chúng ta cần thiết lập một cơ chế hợp tác toàn cầu, chẳng hạn như thành lập một ủy ban quốc tế về an toàn AI với sự tham gia của tất cả các quốc gia. Trong khi chia sẻ lợi ích của AI, an toàn toàn cầu cần được cùng nhau bảo vệ, để cả xã hội loài người có thể sử dụng hiệu quả việc trao quyền cho AI đồng thời đảm bảo sự phát triển ổn định và lành mạnh của nó.

 

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *