OpenAI bảo vệ quy định về AI, nhưng lo ngại hạn chế của nghiên cứu độc lập

Vào chiều thứ Hai (22), OpenAI đưa ra tuyên bố cảnh báo về những thách thức, rủi ro liên quan đến việc phát triển trí tuệ nhân tạo (AI) siêu thông minh.

Dựa theo bài viết, được viết bởi các giám đốc điều hành của công ty, bao gồm cả Giám đốc điều hành Sam Altman, AI có thể vượt qua các kỹ năng chuyên môn và thực hiện các hoạt động hiệu quả tương đương với các hoạt động của các tập đoàn lớn nhất. 

QUẢNG CÁO

Để đối phó với tiến bộ công nghệ này, các chuyên gia ủng hộ sự phối hợp toàn cầu giữa các chính phủ và thành lập một cơ quan quốc tế để giám sát và thực thi các quy định an toàn. Theo họ, an ninh của siêu trí tuệ cũng là một vấn đề quan trọng và nghiên cứu đang được tiến hành để đảm bảo sự bảo vệ của nó.

OpenAI bảo vệ quy định về AI, nhưng lo ngại hạn chế của nghiên cứu độc lập

OpenAI thấy quy định về AI là cần thiết

Các chuyên gia nhấn mạnh rằng điều quan trọng là cho phép phát triển các mô hình AI dưới ngưỡng đáng kể mà không có quy định lớn tập trung vào các nhóm nhỏ, để không hạn chế hoạt động nghiên cứu và tiến bộ của các nhà nghiên cứu độc lập. Mặt khác, các hệ thống mạnh hơn phải được xã hội giám sát một cách dân chủ. 

Nhìn chung, tuyên bố mang lại nhiều điều tương tự như những gì đã được tranh luận bởi những người bảo vệ trí tuệ nhân tạo. Các nhà điều hành tin rằng AI có thể mang lại lợi ích, cải thiện các lĩnh vực như giáo dục, công việc sáng tạo và năng suất cá nhân, nhưng họ cũng nêu ra những rủi ro cản trở sự phát triển của nó. 

QUẢNG CÁO

Với điều này, OpenAI lập luận rằng điều cần thiết là phải tìm ra sự cân bằng giữa quy định, đổi mới và sự tham gia dân chủ để đảm bảo một tương lai đầy hứa hẹn và an toàn với AI.

Xem thêm:

Cuộn lên