Giám đốc Microsoft lo ngại khi sử dụng AI Copilot

icon

Trong một thế giới ngày càng phụ thuộc vào trí tuệ nhân tạo, giám đốc Microsoft đã bắt đầu phải đối mặt với những lo ngại nghiêm trọng về sự an toàn trực tuyến. Trải qua trải nghiệm với AI Copilot của công ty, ông phát hiện ra những nội dung không phù hợp, từ hình ảnh bạo lực đến nội dung khiêu dâm, đẩy ông vào tình trạng lo lắng và gây ra sự bức xúc trong ngành công nghiệp công nghệ.

Trải nghiệm của Giám đốc Microsoft với AI Copilot

Trong cuộc họp với CNBC, Shane Jones, giám đốc kỹ thuật phần mềm tại Microsoft, chia sẻ về trải nghiệm của mình khi sử dụng AI Copilot. Ông thú nhận rằng khi trải nghiệm Copilot Designer vào tháng 12/2023, ông cảm thấy “phát ốm” vì những hình ảnh không phù hợp hiện lên trên máy tính. Jones, một cựu nhân viên của Microsoft, đã dành thời gian để thử nghiệm công nghệ mới của công ty và phát hiện ra những vấn đề đáng lo ngại. Những phản ứng và nhận định của ông đã góp phần làm nổi bật vấn đề về an toàn và đạo đức trong việc sử dụng trí tuệ nhân tạo.

Giám đốc Microsoft lo ngại khi sử dụng AI Copilot
Giao diện của Copilot trên thiết bị iPhone 15 Pro Max. Ảnh: Vnexpress

Phản ứng và yêu cầu của Shane Jones

Shane Jones đã phản ứng mạnh mẽ với những vấn đề mà ông gặp phải khi sử dụng AI Copilot của Microsoft. Ông đã không ngần ngại báo cáo những vấn đề này nội bộ và thậm chí công khai trên mạng xã hội. Jones yêu cầu Microsoft loại bỏ Copilot Designer khỏi mục đích sử dụng đại trà và thực hiện biện pháp bảo vệ người dùng tốt hơn. Ông cũng nhấn mạnh rằng Microsoft cần cải thiện khuyến cáo và kiểm soát mức tiếp cận người dùng, nhất là chỉ nên dành cho người trưởng thành. Những yêu cầu này phản ánh tinh thần trách nhiệm và quan tâm đến việc bảo vệ người dùng của Shane Jones.

Phản ứng của Microsoft và OpenAI

Sau khi nhận được phản hồi từ Shane Jones về các vấn đề liên quan đến AI Copilot, Microsoft và OpenAI chưa có phản ứng cụ thể. Mặc dù Jones đã báo cáo nội bộ và công khai vấn đề, tuy nhiên, không có phản ứng chính thức từ hai công ty. Điều này có thể tạo ra sự bất mãn trong cộng đồng và gây ra thắc mắc về sự đối xử của họ đối với vấn đề nhạy cảm này. Sự im lặng từ phía Microsoft và OpenAI có thể gây ra nhiều tranh cãi và nghi ngờ từ phía người dùng và cộng đồng công nghệ.

Hậu quả và giải pháp tiếp theo

Sau những phản ứng và yêu cầu của Shane Jones, cũng như sự im lặng từ Microsoft và OpenAI, câu hỏi về hậu quả và giải pháp tiếp theo trở nên quan trọng. Các vấn đề liên quan đến an toàn và đạo đức trong việc sử dụng công nghệ AI đang được đặt ra. Cần có sự can thiệp từ các tổ chức liên quan để đảm bảo rằng các mô hình AI được phát triển và triển khai một cách đúng đắn và đạo đức. Một giải pháp tiếp theo có thể là việc tăng cường kiểm soát và giám sát từ các cơ quan quản lý, đồng thời tạo ra các nguyên tắc và quy định cụ thể về việc sử dụng AI trong các ứng dụng thực tế.


Các chủ đề liên quan: Microsoft / AI / Copilot



Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *