* OpenAI công bố hướng dẫn đánh giá rủi ro AI
Theo phóng viên TTXVN tại Tokyo, Nhật Bản sẽ thành lập cơ quan mới có nhiệm vụ xây dựng các tiêu chuẩn an toàn về Trí tuệ Nhân tạo (AI) nhằm ứng phó với các rủi ro như lạm dụng AI để tạo ra các nội dung giả mạo, lan truyền thông tin sai lệch đang trở nên phổ biến.
Nguồn: Ảnh do AI tạo ra từ Bing Image Creator |
Thông tin trên được Thủ tướng Fumio Kishida công bố tại cuộc họp của Hội đồng chiến lược AI diễn ra ngày 21/12 tại Tokyo.
Dự kiến, tổ chức mới sẽ được thành lập vào tháng 1/2024 với tên gọi “Viện An toàn AI” (AISI), trực thuộc Cơ quan Xúc tiến công nghệ thông tin (IPA), Bộ Kinh tế, Thương mại và Công nghiệp Nhật Bản (METI).
AISI sẽ bao gồm các chuyên gia về AI và an ninh mạng, chịu trách nhiệm thiết lập các tiêu chuẩn đánh giá an toàn cho các công ty phát triển AI và xác minh nguy cơ AI bị lạm dụng.
Cũng tại cuộc họp, hội đồng AI đã thảo luận về “Hướng dẫn về AI” bao gồm 10 nguyên tắc, trong đó kêu gọi các công ty trong nước lấy con người làm trung tâm khi phát triển hoặc sử dụng AI.
Theo kế hoạch, bản “Hướng dẫn về AI” sẽ được chính thức thông qua vào tháng 3/2024, áp dụng cho các nhà phát triển, nhà cung cấp dịch vụ AI và cả người sử dụng.
Các nguyên tắc trong bản văn bản được xây dựng dựa trên “Tiến trình AI Hiroshima” của Nhóm các nước công nghiệp phát triển (G7) để xây dựng các quy tắc quốc tế.
Theo nguyên tắc lấy con người làm trung tâm, bản hướng dẫn kêu gọi các công ty tôn trọng quyền con người và sự đa dạng, thực hiện các biện pháp chống lại thông tin sai lệch và tuyệt đối không tham gia phát triển, cung cấp và sử dụng các dịch vụ AI nhằm thao túng tiêu cực việc ra quyết định và cảm xúc của con người.
Ngoài ra, bản hướng dẫn còn có các nguyên tắc khác như vệ quyền riêng tư, đảm bảo sự công bằng, an ninh và minh bạch.
* Ngày 18/12, Công ty OpenAI, nhà sản xuất nền tảng ChatGPT, đã công bố các hướng dẫn mới nhất để đánh giá những "rủi ro mang tính thảm họa" của trí tuệ nhân tạo (AI) trong các mô hình đang được phát triển.
Thông báo trên được đưa ra một tháng sau khi hội đồng quản trị công ty sa thải Giám đốc điều hành (CEO) Sam Altman, và thuê ông trở lại vài ngày sau vì nhân viên và nhà đầu tư phản đối.
Theo truyền thông Mỹ, các thành viên hội đồng quản trị của OpenAI chỉ trích ông Altman vì ông ủng hộ sự phát triển nhanh chóng của OpenAI bất chấp những rủi ro có thể xảy ra với công nghệ mà công ty phát triển.
Tháng 10 vừa qua, công ty cho biết một nhóm giám sát và đánh giá sẽ tập trung vào "các mô hình biên giới" đang được phát triển, có khả năng vượt trội so với phần mềm AI tiên tiến nhất. Nhóm sẽ đánh giá từng mô hình mới và xác định mức độ rủi ro từ "thấp" đến mức "quan trọng" gồm 4 cấp.
Theo bản hướng dẫn trên, chỉ những mô hình có điểm rủi ro là "trung bình" hoặc thấp hơn có thể được triển khai.
Cấp độ rủi ro đầu tiên liên quan đến an ninh mạng và khả năng thực hiện các cuộc tấn công mạng quy mô lớn của mô hình. Cấp độ thứ hai sẽ đo lường xu hướng của phần mềm trong việc giúp tạo ra hỗn hợp hóa học, sinh vật (chẳng hạn như virus) hoặc vũ khí hạt nhân, có thể gây hại cho con người.
Cấp độ thứ 3 liên quan đến sức mạnh thuyết phục của mô hình, chẳng hạn như mức độ nó có thể ảnh hưởng đến hành vi của con người. Cấp độ rủi ro cuối cùng liên quan đến khả năng tự chủ tiềm tàng của mô hình, đặc biệt là liệu mô hình này có thể thoát khỏi sự kiểm soát của các lập trình viên đã tạo ra nó hay không.
Sau khi xác định được mức độ rủi ro, kết quả sẽ được gửi đến Nhóm Cố vấn An toàn của OpenAI, một cơ quan mới của OpenAI sẽ đưa ra khuyến nghị cho ông Altman hoặc người do ông chỉ định. Sau đó, người đứng đầu OpenAI sẽ quyết định mọi thay đổi cần thực hiện đối với mô hình để giảm thiểu rủi ro liên quan. Hội đồng quản trị sẽ được thông báo đầy đủ và có thể bác bỏ quyết định trên.
Theo phóng viên TTXVN tại Tokyo, Nhật Bản sẽ thành lập cơ quan mới có nhiệm vụ xây dựng các tiêu chuẩn an toàn về Trí tuệ Nhân tạo (AI) nhằm ứng phó với các rủi ro như lạm dụng AI để tạo ra các nội dung giả mạo, lan truyền thông tin sai lệch đang trở nên phổ biến.
Thông tin trên được Thủ tướng Fumio Kishida công bố tại cuộc họp của Hội đồng chiến lược AI diễn ra ngày 21/12 tại Tokyo.
Dự kiến, tổ chức mới sẽ được thành lập vào tháng 1/2024 với tên gọi “Viện An toàn AI” (AISI), trực thuộc Cơ quan Xúc tiến công nghệ thông tin (IPA), Bộ Kinh tế, Thương mại và Công nghiệp Nhật Bản (METI).
AISI sẽ bao gồm các chuyên gia về AI và an ninh mạng, chịu trách nhiệm thiết lập các tiêu chuẩn đánh giá an toàn cho các công ty phát triển AI và xác minh nguy cơ AI bị lạm dụng.
Cũng tại cuộc họp, hội đồng AI đã thảo luận về “Hướng dẫn về AI” bao gồm 10 nguyên tắc, trong đó kêu gọi các công ty trong nước lấy con người làm trung tâm khi phát triển hoặc sử dụng AI.
Theo kế hoạch, bản “Hướng dẫn về AI” sẽ được chính thức thông qua vào tháng 3/2024, áp dụng cho các nhà phát triển, nhà cung cấp dịch vụ AI và cả người sử dụng.
Các nguyên tắc trong bản văn bản được xây dựng dựa trên “Tiến trình AI Hiroshima” của Nhóm các nước công nghiệp phát triển (G7) để xây dựng các quy tắc quốc tế.
Theo nguyên tắc lấy con người làm trung tâm, bản hướng dẫn kêu gọi các công ty tôn trọng quyền con người và sự đa dạng, thực hiện các biện pháp chống lại thông tin sai lệch và tuyệt đối không tham gia phát triển, cung cấp và sử dụng các dịch vụ AI nhằm thao túng tiêu cực việc ra quyết định và cảm xúc của con người.
Ngoài ra, bản hướng dẫn còn có các nguyên tắc khác như vệ quyền riêng tư, đảm bảo sự công bằng, an ninh và minh bạch.
Theo TTXVN/Vietnam+