Trí tuệ nhân tạo (AI) là một trong những lĩnh vực công nghệ quan trọng nhất hiện nay, có ảnh hưởng đến nhiều khía cạnh của xã hội, kinh tế và an ninh. Tuy nhiên AI cũng đặt ra nhiều thách thức về đạo đức, pháp lý và quyền riêng tư.
Chính phủ các nước đang tìm cách quản lý sự phát triển và ứng dụng của AI - Ảnh tạo từ AI của Microsoft
Do đó việc quản lý AI một cách hiệu quả và có trách nhiệm là một nhiệm vụ cấp thiết của các chính phủ và các tổ chức quốc tế.
EU tiên phong
Mô hình quản lý AI đang được xây dựng dựa trên nguyên tắc chung là tôn trọng quyền con người và dự phòng rủi ro. Các quy định về AI được thiết kế nhằm đảm bảo sự cân bằng trong việc hạn chế rủi ro từ AI và phát huy tiềm năng của công nghệ mới này.
Theo Hãng tin Reuters, năm 2018 Liên minh châu Âu (EU) đã ban hành Quy định chung về bảo vệ dữ liệu (GDPR) - là một bộ luật bảo vệ quyền riêng tư của người dùng trước các hoạt động thu thập, xử lý và chia sẻ dữ liệu của các công ty và tổ chức.
GDPR cũng áp dụng cho các ứng dụng AI sử dụng dữ liệu cá nhân, yêu cầu các bên liên quan phải tuân thủ các nguyên tắc như minh bạch, cân bằng lợi ích, tôn trọng quyền tự quyết và có trách nhiệm.
Ngoài ra EU còn đưa ra các khuyến nghị về đạo đức AI nhằm đảm bảo các ứng dụng AI phải tuân theo các giá trị cốt lõi của EU như nhân quyền, dân chủ và pháp quyền.
Cuối năm 2022, ChatGPT tạo nên cơn sốt toàn cầu nhờ thể hiện những khả năng đáng kinh ngạc cũng như những rủi ro tiềm tàng. Từ đó, EU đã quyết liệt hơn nữa trong việc quản lý AI.
Thực tế các biện pháp quản lý AI ở EU đã có từ 2021, nhưng nhu cầu soạn thảo bộ luật mới trở nên cấp bách hơn khi thế giới bước vào cơn sốt AI trong năm 2023 vừa qua. Đạo luật AI châu Âu khi được thông qua sẽ là khuôn khổ pháp lý đầu tiên trên thế giới trong lĩnh vực này.
Đạo luật AI của EU nhằm tạo ra một khuôn khổ pháp lý toàn diện để đảm bảo AI được sử dụng một cách an toàn, công bằng, bảo vệ quyền cơ bản của con người và thúc đẩy đổi mới công nghệ. Đạo luật AI phân biệt các hệ thống AI theo mức độ rủi ro mà chúng gây ra cho người dùng, gồm: rủi ro không thể chấp nhận được, rủi ro cao, rủi ro hạn chế và rủi ro thấp.
Các hệ thống AI có rủi ro không thể chấp nhận được sẽ bị cấm, các hệ thống AI có rủi ro cao sẽ phải tuân theo các yêu cầu và nghĩa vụ nghiêm ngặt, các hệ thống AI có rủi ro hạn chế sẽ phải minh bạch với người dùng, còn các hệ thống AI có rủi ro thấp sẽ không bị hạn chế.
Đạo luật AI đã được Ủy ban châu Âu (EC) đề xuất vào tháng 4-2021, Hội đồng châu Âu (EUC) nhất trí vào tháng 12-2021 và Nghị viện châu Âu (EP) thông qua vào tháng 6-2023. Các nhà đàm phán của EP và EUC đã đạt được thỏa thuận chính trị vào ngày 9-12-2023. Đạo luật AI sẽ phải được cả EP và EUC chính thức thông qua để trở thành luật của EU.
Mặc dù có những nỗ lực đáng khen ngợi nhưng mô hình quản lý AI của châu Âu cũng gặp phải một số hạn chế và thách thức. Một trong số đó là việc thiếu vắng các cơ chế thực thi và giám sát hiệu quả, khiến các quy định và tiêu chuẩn về AI chỉ mang tính khuyến khích và tình nguyện.
Mỹ dựa trên thị trường và sáng tạo
Mỹ là một trong những quốc gia dẫn đầu thế giới về AI, với nhiều thành tựu về nghiên cứu, phát triển và ứng dụng AI trong nhiều lĩnh vực. Mỹ cũng là nơi có nhiều công ty và khởi nghiệp về lĩnh vực AI hàng đầu như Google, Microsoft, Amazon, Facebook, Apple và Tesla.
Mô hình quản lý AI của Mỹ dựa trên nguyên tắc thị trường tự do và khuyến khích sáng tạo, đổi mới. Mỹ không có một bộ luật hoặc cơ quan chuyên trách về AI mà để cho các cơ quan liên bang, tiểu bang và địa phương quyết định các quy định cụ thể cho từng lĩnh vực và hoạt động liên quan đến AI.
Mô hình quản lý AI của Mỹ có ưu điểm là tạo ra một môi trường kinh doanh thuận lợi, linh hoạt và cạnh tranh cho các công ty và khởi nghiệp AI, đồng thời khuyến khích sự hợp tác giữa các bên liên quan trong việc phát triển và ứng dụng AI.
Vào tháng 5-2023, chính quyền Tổng thống Mỹ Joe Biden công bố khoản đầu tư trị giá 140 triệu USD để thành lập bảy trung tâm nghiên cứu về AI. Tới ngày 30-10, ông Biden ký sắc lệnh hành pháp đầu tiên về AI. Sắc lệnh này là bước đầu tiên đảm bảo cho AI có thể trở nên đáng tin cậy và hữu ích, thay vì lừa bịp và phá hoại, tạo ra "hàng rào an toàn" từ sớm và sau đó gia cố bằng luật cũng như các thỏa thuận toàn cầu.
Tuy nhiên mô hình của Mỹ cũng có những bất cập và rủi ro. Đó là việc thiếu sự thống nhất, nhất quán và minh bạch trong các quy định và tiêu chuẩn về AI, khiến các bên liên quan gặp khó khăn trong việc tuân thủ và giải quyết các tranh chấp.
Một vấn đề khác là việc thiếu sự quan tâm và bảo vệ đối với quyền riêng tư, an toàn và công bằng của người dùng, khi các công ty và tổ chức AI có thể sử dụng dữ liệu cá nhân và đưa ra các quyết định ảnh hưởng đến cuộc sống của họ mà không cần có sự đồng ý hoặc giải thích.
Trung Quốc cân bằng giữa phát triển và quản lý AI
Trung Quốc là một trong những quốc gia có tốc độ phát triển AI nhanh nhất thế giới, trong bối cảnh nước này đặt mục tiêu trở thành quốc gia dẫn đầu về AI vào năm 2030.
Tháng 7-2023, Cục Quản lý không gian mạng của Trung Quốc phối hợp Ủy ban Cải cách và phát triển quốc gia cùng Bộ Khoa học và Công nghệ nước này đã ban hành quy định tạm thời về quản lý các dịch vụ AI tạo sinh.
Cơ quan chức năng có trách nhiệm thực hiện phân loại và giám sát các dịch vụ AI tạo sinh, đồng thời đảm bảo các nhà cung cấp dịch vụ thực hiện nghĩa vụ bảo mật thông tin trực tuyến, bao gồm bảo vệ thông tin cá nhân của người dùng và thực hiện các biện pháp chặn người dùng chưa đủ tuổi tiếp cận những dịch vụ như vậy.
Nguồn: Báo Tuổi trẻ Online