* Giới chuyên gia kêu gọi hành động để ứng phó nguy cơ liên quan đến AI
Trong bối cảnh công nghệ trí tuệ nhân tạo (AI) ngày càng hiện diện nhiều hơn trong cuộc sống thường nhật, Chính phủ Vương quốc Anh ngày 30/3 đã công bố Sách trắng bao gồm hướng dẫn cụ thể về việc thực hiện các quy định liên quan đến công nghệ này.
Trong Sách trắng trình Quốc hội, Bộ Khoa học, Đổi mới và Công nghệ (DSIT) nêu 5 nguyên tắc mà cơ quan này muốn các công ty tuân theo. Đó là an toàn, bảo mật và mạnh mẽ; tính minh bạch và khả năng giải thích; công bằng; trách nhiệm giải trình và quản trị; và khả năng cạnh tranh và khắc phục.
Thay vì thiết lập các quy định mới, Chính phủ Anh kêu gọi các cơ quan quản lý tiếp tục áp dụng các quy định hiện hành, tuy nhiên thông báo cho các công ty biết nghĩa vụ của họ theo Sách trắng.
Các cơ quan phụ trách vấn đề về y tế và an toàn sức khỏe, bình đẳng, cạnh tranh thị trường được giao nhiệm vụ đề ra các biện pháp thích hợp, tùy hoàn cảnh cụ thể phù hợp với việc áp dụng AI trong thực tế lĩnh vực của họ.
Trong vòng 12 tháng tới, các cơ quan quản lý sẽ ban hành hướng dẫn thực tế cho các tổ chức, cũng như các công cụ và nguồn lực khác như mẫu đánh giá rủi ro, để đưa ra cách thực hiện các nguyên tắc này trong từng lĩnh vực cụ thể, trước khi tiến tới ban hành luật định để đảm bảo các cơ quan quản lý xem xét các nguyên tắc một cách nhất quán.
Bà Maya Pindeus, Giám đốc điều hành và người đồng sáng lập Công ty khởi nghiệp AI Humanising Autonomy, cho biết động thái của Chính phủ Anh đánh dấu bước đầu tiên hướng tới việc quản lý AI. Tuy nhiên, bà cho rằng đây là vấn đề khó khăn.
Sự xuất hiện và lan rộng của ChatGPT, chatbot AI đã thúc đẩy một làn sóng nhu cầu đối với công nghệ này. Mọi người sử dụng công cụ này cho mọi việc, từ viết các bài luận ở trường cho đến soạn thảo các ý kiến pháp lý.
Theo thống kê mới nhất, ChatGPT đã trở thành một trong những ứng dụng tiêu dùng phát triển nhanh nhất mọi thời đại, thu hút 100 triệu người dùng hoạt động hằng tháng kể từ tháng 2/2023. Các chuyên gia lo ngại về những tác động tiêu cực của công nghệ này, bao gồm khả năng đạo văn và phân biệt đối xử với phụ nữ và dân tộc thiểu số.
Người ta cũng lo ngại về khả năng mất việc làm do tự động hóa. Ngày 29/3, Goldman Sachs cảnh báo rằng có tới 300 triệu việc làm có thể có nguy cơ bị xóa sổ bởi các sản phẩm trí tuệ nhân tạo.
DSIT cho rằng AI, được cho là đóng góp 3,7 tỉ bảng Anh (4,6 tỉ USD) cho nền kinh tế Anh mỗi năm, cũng nên “được sử dụng theo cách tuân thủ luật pháp hiện hành của Anh, và không được phân biệt đối xử với các cá nhân hoặc tạo ra kết quả thương mại không công bằng.
Theo ông Lila Ibrahim, Giám đốc điều hành của DeepMind và là thành viên của Hội đồng AI của Anh, AI là một “công nghệ biến đổi", nhưng chỉ có thể phát huy hết tiềm năng nếu được tin cậy. Điều này đòi hỏi sự hợp tác giữa khu vực công và tư nhân trong tinh thần tiên phong có trách nhiệm.
Ông Ibrahim cho rằng phương pháp tiếp cận điều chỉnh theo bối cảnh được đề xuất của Anh sẽ giúp quy định bắt kịp với sự phát triển của AI, hỗ trợ đổi mới và giảm thiểu rủi ro trong tương lai.
Sách trắng về AI được công bố sau khi nhiều quốc gia khác đã đưa ra quy định để quản lý AI. Chính phủ Trung Quốc đã yêu cầu các công ty công nghệ cung cấp thông tin chi tiết về các thuật toán, trong khi Liên minh châu Âu đã đề xuất các quy định của riêng mình cho ngành này.
* Liên quan đến AI, các chủ doanh nghiệp, chuyên gia và nhà nghiên cứu hàng đầu trong lĩnh vực này đã ký vào một bức thư ngỏ kêu gọi tạm dừng 6 tháng việc huấn luyện các mô hình AI mạnh hơn GPT-4 mà công ty OpenAI vừa cho ra mắt năm 2022.
Bức thư do tổ chức phi lợi nhuận Viện Cuộc sống tương lai (Future of Life) phát hành và có chữ ký của hơn 1.000 người, trong đó có ông chủ hãng xe Tesla, tỉ phú Elon Musk; Giám đốc điều hành (CEO) của công ty Stability AI, ông Emad Mostaque; các nhà nghiên cứu tại DeepMind của tập đoàn Alphabet, cũng như các nhân vật có thế lực trong lĩnh vực AI như Yoshua Bengio và Stuart Russell.
Viện dẫn các nguy cơ tiềm tàng đối với xã hội và nhân loại, các chuyên gia và chủ doanh nghiệp cho rằng cần tạm ngừng phát triển AI tiên tiến cho đến khi các quy định về an toàn mới dành cho thiết kế AI được phát triển, thực thi và giám sát bởi các chuyên gia độc lập.
Từ khi được công bố vào năm 2022, ChatGPT của OpenAI đã khởi động một cuộc chạy đua của các đối thủ nhằm đẩy nhanh việc phát triển các mô hình ngôn ngữ lớn tương tự, và các công ty tích hợp các mô hình AI phái sinh vào sản phẩm của mình.
Thư nêu rõ: “Các hệ thống AI mạnh chỉ nên được phát triển khi nào chúng ta chắc chắn rằng các tác động của chúng sẽ là tích cực và các nguy cơ sẽ được quản lý”.
Thư cũng nêu chi tiết các nguy cơ tiềm tàng đối với xã hội và nền văn minh mà các hệ thống AI cạnh tranh với loài người có thể gây ra dưới dạng những gián đoạn kinh tế và chính trị.
Thư kêu gọi các nhà phát triển AI phối hợp với các nhà hoạch định chính sách để quản lý AI. Bức thư trên được phát hành trong bối cảnh lực lượng cảnh sát châu Âu (Europol) ngày 27/3 cũng bày tỏ lo ngại về pháp lý và đạo đức liên quan đến các ứng dụng AI như ChatGPT, cảnh báo về nguy cơ sử dụng hệ thống này vào các âm mưu lừa đảo qua thư, giả mạo thông tin và tội phạm mạng.
Tỉ phú Musk, người đang sử dụng AI cho hệ thống tự lái của xe Tesla, cũng bày tỏ lo ngại của mình về AI.
CEO của OpenAI, ông Sam Altman đã không ký vào bức thư trên. Hiện công ty chưa bình luận gì về việc này.
Ông Gary Marcus, giáo sư tại Đại học New York, đã ký vào thư, cho biết: “Bức thư chưa hoàn hảo nhưng tinh thần là đúng đắn: Chúng ta cần giảm tốc cho đến khi hiểu rõ ngọn ngành. AI có thể gây hại nghiêm trọng”.
T.LÊ (tổng hợp từ TTXVN/Vietnam+)