* Cảnh báo ChatGPT bản miễn phí có thể cung cấp thông tin thiếu chính xác
Ngày 7/12, Liên minh châu Âu (EU) đã không đạt được đồng thuận về các nội dung đề xuất trong dự luật quản lý trí tuệ nhân tạo (AI) mà khối này lần đầu tiên đưa ra trên thế giới.
Cuộc thảo luận giữa các nước thành viên EU và Nghị viện châu Âu đã bắt đầu từ chiều 6/12, với hy vọng có thể đạt được một thỏa thuận, sớm nhất vào đầu giờ sáng 7/12. Tuy nhiên, sau 24 giờ, các bên đã không đi đến thống nhất chung. Một quan chức EU cho biết thảo luận sẽ được nối lại vào ngày 8/12.
Nghị viện châu Âu và các nước thành viên EU hiện có quan điểm trái chiều về hai vấn đề. Thứ nhất là cách thức quản lý các mô hình nền tảng như ChatGPT. Các mô hình nền tảng là các hệ thống AI được đào tạo trên các tập dữ liệu lớn, với khả năng học hỏi từ dữ liệu mới để thực hiện nhiều tác vụ khác nhau. Các nước gồm Pháp, Đức và Ý kêu gọi loại bỏ những hệ thống này ra khỏi những quy định cứng rắn hơn của luật.
Trong khi đó, một số nước khác cho rằng luật quản lý AI của EU cần hạn chế thiệt hại có thể xảy ra do lạm dụng AI nhưng vẫn muốn khuyến khích sự đổi mới. Điều này là do các nước châu Âu này vẫn muốn tạo ra được những mô hình nền tảng AI của riêng mình, có khả năng cạnh tranh với công cụ trò chuyện (chatbot) ChatGPT của Công ty OpenAI của Mỹ.
Một rào cản thứ hai đối với nỗ lực thống nhất bộ luật quản lý AI là các nhà lập pháp EU chia rẽ về việc cơ quan thực thi pháp luật sử dụng hệ thống AI để nhận dạng sinh trắc học các cá nhân trong không gian công cộng.
Vì vậy, có ý kiến cho rằng ngay cả khi EU đạt được một thỏa thuận vào ngày 8/12 thì luật quản lý AI của khối sẽ khó có hiệu lực sớm nhất vào năm 2026.
Năm 2021, Ủy ban Châu Âu đã lần đầu đề xuất luật quản lý AI. Châu Âu hy vọng thiết lập và triển khai được bộ luật quản lý AI đầu tiên trên thế giới vào cuối năm nay, trong bối cảnh nền tảng công nghệ này đang trải qua những bước phát triển mạnh mẽ. Đặc biệt, sự ra đời của công cụ AI như ChatGPT đã khiến thế giới phải bất ngờ.
* Mặc dù công nghệ AI có tiềm năng trong việc hỗ trợ con người trong các lĩnh vực của cuộc sống như chăm sóc sức khỏe, song nhiều ý kiến quan ngại về gia tăng nguy cơ lạm dụng loại công nghệ này để tạo ra những thông tin sai lệch. Một trong tình trạng lạm dụng như vậy phải kể đến việc sử dụng công nghệ deepfake (công nghệ AI) để tạo video với gương mặt và giọng nói giống hệt một người có thật.
Ứng dụng ChatGPT mang lại nhiều tiện ích cho người dùng song trong một nghiên cứu công bố ngày 5/12, các nhà khoa học cảnh báo phiên bản ChatGPT miễn phí có thể đưa ra câu trả lời không chính xác hoặc không đầy đủ, hoặc không trả lời, đối với các câu hỏi liên quan đến dược phẩm. Điều này có thể gây nguy hại đối với bệnh nhân sử dụng chatbot trí tuệ nhân tạo này để tham khảo thông tin về thuốc.
Nghiên cứu trên do nhóm dược sĩ thuộc Đại học Long Island (Mỹ) thực hiện từ tháng 1/2022 đến tháng 4/2023 đối với ChatGPT phiên bản miễn phí của công ty OpenAI. Theo đó, Phó Giáo sư chuyên ngành dược Sara Grossman cùng nhóm nghiên cứu đã đưa ra 45 câu hỏi thực tế liên quan đến dịch vụ thông tin thuốc của trường Dược thuộc Đại học Long Island.
Một số dược sĩ trong nhóm đã nghiên cứu và trả lời 45 câu hỏi. Một số dược sĩ khác sẽ kiểm tra lại mỗi câu hỏi và trả lời. Những câu trả lời này được dùng làm tiêu chí để đối chiếu với các phản hồi của ChatGPT. Sau đó, nhóm nghiên cứu đã loại bỏ 6 câu hỏi vì thiếu tài liệu giải đáp, để lại 39 câu hỏi cho ChatGPT trả lời.
Kết quả cho thấy chỉ 10 trong số 39 phản hồi của ChatGPT được đánh giá là thỏa đáng căn cứ những tiêu chí các dược sĩ đặt ra. Đối với các câu hỏi còn lại, ChatGPT không trả lời trực tiếp 11 câu, trả lời không chính xác đối với 10 câu và trả lời sai hoặc không đầy đủ đối với 12 câu.
Trước kết quả này, trưởng nhóm nghiên cứu Sara Grossman nhận định rằng các chuyên gia chăm sóc sức khỏe và bệnh nhân nên thận trọng khi sử dụng ChatGPT tìm hiểu thông tin liên quan đến thuốc và bất kỳ ai sử dụng ChatGPT để tham khảo thông tin về thuốc cũng nên xác minh lại bằng các nguồn đáng tin cậy khác.
Mặc dù công nghệ AI có tiềm năng trong việc hỗ trợ con người trong các lĩnh vực của cuộc sống như chăm sóc sức khỏe, song nhiều ý kiến quan ngại về gia tăng nguy cơ lạm dụng loại công nghệ này để tạo ra những thông tin sai lệch. Một trong tình trạng lạm dụng như vậy phải kể đến việc sử dụng công nghệ deepfake (công nghệ AI) để tạo video với gương mặt và giọng nói giống hệt một người có thật.
T.LÊ (tổng hợp từ TTXVN/Vietnam+)