OpenAI, Nhà sản xuất của ChatGPT, cam kết phát triển hệ thống AI an toàn

hình1.png

OpenAI đã đăng bài viết mới cam kết phát triển trí tuệ nhân tạo (AI) an toàn và mang lợi ích rộng rãi.

ChatGPT, được trang bị bởi mô hình mới nhất của OpenAI, GPT-4, có thể cải thiện năng suất, tăng cường sáng tạo và cung cấp những trải nghiệm học tập đặc biệt.

Tuy nhiên, OpenAI nhận thức rằng các công cụ AI có những rủi ro tự nhiên cần được giải quyết thông qua các biện pháp an toàn và triển khai có trách nhiệm.

Đây là những gì công ty đang làm để giảm thiểu những rủi ro đó.

Đảm bảo an toàn trong các hệ thống AI

OpenAI tiến hành kiểm tra tỉ mỉ, tìm kiếm sự hướng dẫn từ các chuyên gia bên ngoài và điều chỉnh mô hình AI bằng phản hồi từ con người trước khi phát hành hệ thống mới.

Việc phát hành GPT-4, ví dụ, đã được tiền thân bằng hơn sáu tháng thử nghiệm để đảm bảo sự an toàn và phù hợp với nhu cầu của người dùng.

OpenAI tin rằng các hệ thống AI mạnh mẽ nên phải qua các đánh giá an toàn chặt chẽ và hỗ trợ việc cần thiết của quy định.

Học từ việc Sử dụng Trong Thực tế

Sử dụng thực tế là một phần quan trọng trong việc phát triển hệ thống AI an toàn. Bằng cách phát hành từ từ các mô hình mới để mở rộng người dùng, OpenAI có thể cải thiện để giải quyết các vấn đề không ngờ.

Bằng cách cung cấp các mô hình trí tuệ nhân tạo qua giao diện API và trang web của mình, OpenAI có thể giám sát việc sử dụng sai mục đích, thực hiện hành động phù hợp và phát triển các chính sách tinh vi để cân nhắc rủi ro.

Bảo vệ trẻ em và tôn trọng sự riêng tư

OpenAI ưu tiên bảo vệ trẻ em bằng cách yêu cầu xác minh tuổi và cấm sử dụng công nghệ của nó để tạo nội dung có hại.

Bảo mật là một khía cạnh quan trọng khác của công việc của OpenAI. Tổ chức sử dụng dữ liệu để làm cho các mô hình của mình hữu ích hơn trong khi bảo vệ người dùng.

Ngoài ra, OpenAI loại bỏ thông tin cá nhân khỏi các tập dữ liệu huấn luyện và điều chỉnh mô hình để từ chối yêu cầu thông tin cá nhân.

OpenAI sẽ phản hồi yêu cầu xoá thông tin cá nhân khỏi hệ thống của mình.

Cải thiện Độ chính xác Thực tế

Độ chính xác thực tế là một mục tiêu quan trọng của OpenAI. GPT-4 có khả năng tạo ra nội dung chính xác hơn 40% so với phiên bản trước đó là GPT-3.5.

Tổ chức cố gắng giáo dục người dùng về những hạn chế của các công cụ AI và khả năng không chính xác.

Nghiên cứu và Tương tác Tiếp tục

OpenAI tin rằng việc dành thời gian và nguồn lực để nghiên cứu các biện pháp giảm thiểu hiệu quả và kỹ thuật điều chỉnh.

Tuy nhiên, việc này không thể làm một mình. Để giải quyết các vấn đề về an toàn, cần có cuộc thảo luận bài bản, thử nghiệm và sự tham gia của các bên liên quan.

OpenAI vẫn cam kết thúc đẩy sự hợp tác và giao tiếp mở để tạo ra một hệ sinh thái trí tuệ nhân tạo an toàn.

Phê bình về những nguy cơ tồn tại

Mặc dù OpenAI cam kết đảm bảo an toàn và lợi ích rộng rãi của hệ thống trí tuệ nhân tạo của mình, bài đăng trên blog của họ đã gây ra phản đối trên các phương tiện truyền thông xã hội.

Người dùng Twitter đã thể hiện sự thất vọng, nhận định rằng OpenAI không giải quyết những nguy cơ tồn tại liên quan đến phát triển trí tuệ nhân tạo.

Một người dùng Twitter đã tỏ ra thất vọng của mình, cáo buộc OpenAI phản bội sứ mệnh ban đầu và tập trung vào việc kinh doanh nông nhiều.

Người dùng đề xuất rằng phương pháp của OpenAI về an toàn chỉ nông cạn và quan tâm hơn đến việc làm hài lòng các nhà phê phán hơn là giải quyết những mối đe dọa thiết thực tồn tại.

Điều này thật là đáng thất vọng, chỉ là sự trang điểm PR rỗng rãi.

Bạn thậm chí không đề cập đến các rủi ro tồn tại từ Trí tuệ Nhân tạo là vấn đề trung tâm của nhiều công dân, kỹ sư, nhà nghiên cứu Trí tuệ Nhân tạo và các nhà lãnh đạo trong ngành. Bao gồm cả CEO của chính ứng dụng này là @sama.@OpenAI đang phản bội…

— Geoffrey Miller (@primalpoly) April 5, 2023

Một người dùng khác đã bày tỏ sự không hài lòng với thông báo này, lập luận rằng nó che đậy các vấn đề thực tế và vẫn mơ hồ. Người dùng cũng nhấn mạnh rằng báo cáo bỏ qua các vấn đề đạo đức quan trọng và rủi ro liên quan đến tự nhận thức của Trí tuệ Nhân tạo, ngụ ý rằng phương pháp của OpenAI trong việc đối phó với các vấn đề an ninh là không đáng tin cậy.

Là một fan của GPT-4, tôi rất thất vọng về bài viết của bạn.

Nó chỉ qua những vấn đề thực sự, mơ hồ và bỏ qua những vấn đề đạo đức quan trọng và nguy cơ liên quan đến trí tuệ nhân tạo tự nhận thức.

Tôi đánh giá cao sự đổi mới, nhưng đây không phải là cách tiếp cận đúng để giải quyết các vấn đề an ninh.

— FrankyLabs (@FrankyLabs) April 5, 2023

Sự phê phán nhấn mạnh vấn đề rộng hơn và cuộc tranh luận tiếp diễn về các nguy cơ tồn tại do phát triển trí tuệ nhân tạo gây ra.

Mặc dù thông báo của OpenAI nhấn mạnh cam kết về an toàn, quyền riêng tư và độ chính xác, nhưng điều cần thiết là nhận ra sự cần thiết của cuộc thảo luận tiếp theo để giải quyết các vấn đề quan trọng hơn.

Bài viết liên quan

Xem thêm >>

Khai phá sức mạnh của AI với HIX.AI!