28 thg 3, 2023·2 phút đọc

Elon Musk, Steve Wozniak và hơn 1.000 chuyên gia kêu gọi tạm dừng phát triển AI tiềm tàng nguy hiểm

Elon Musk, Steve Wozniak và hơn 1.000 chuyên gia đã viết một bức thư ngỏ kêu gọi tạm thời ngừng phát triển công nghệ AI mạnh hơn GPT-4 của OpenAI, bày tỏ lo ngại về những rủi ro sâu sắc của nó đối với xã hội và nhân loại.

Elon Musk, Steve Wozniak và hơn 1.000 chuyên gia kêu gọi tạm dừng phát triển AI tiềm tàng nguy hiểm

Hơn 1.000 nhân vật nổi tiếng bao gồm Elon Musk và Steve Wozniak đã bày tỏ lo ngại về sự phát triển không kiểm soát của công nghệ trí tuệ nhân tạo (AI). Đáp lại, họ đã hợp lực để phát hành một bức thư ngỏ ủng hộ việc tạm ngừng phát triển các hệ thống AI tiên tiến hơn GPT-4 của OpenAI trong sáu tháng, viện dẫn những mối đe dọa đáng kể mà chúng gây ra cho xã hội và nhân loại.

Được gửi tới các nhà phát triển AI, bức thư dài 600 từ đã gióng lên hồi chuông cảnh báo về tình trạng hiện tại trong các phòng thí nghiệm AI, dường như đang theo đuổi không ngừng để tạo ra những bộ óc kỹ thuật số ngày càng mạnh mẽ. Những sự phát triển này đã đạt đến một giai đoạn mà ngay cả những người tạo ra chúng cũng không thể hiểu, dự đoán hoặc quản lý chúng, khiến những rủi ro tiềm ẩn liên quan ngày càng leo thang.

Đáng chú ý là ban đầu, Musk là người đồng sáng lập OpenAI, tổ chức bắt đầu như một tổ chức phi lợi nhuận chuyên đảm bảo AI mang lại lợi ích cho nhân loại. Tuy nhiên, ông đã từ chức khỏi hội đồng quản trị của công ty vào năm 2018. Ngày nay, OpenAI hoạt động như một tổ chức vì lợi nhuận, với những lời chỉ trích cho rằng các mục tiêu của nó đã khác với sứ mệnh ban đầu. Mối quan hệ đối tác sâu xa với Microsoft, liên quan đến khoản đầu tư hàng tỷ đô la, dường như đã thúc đẩy OpenAI thực hiện các sáng kiến thậm chí còn mạo hiểm hơn.

Đặt câu hỏi công khai về sự biến chất của OpenAI, mối quan tâm của Musk đã được lặp lại bởi Mozilla, công ty gần đây đã tiết lộ công ty khởi nghiệp mới của mình, Mozilla.ai. Được thiết lập để giải quyết một số mối quan tâm cấp bách nhất đối với sự phát triển của công nghệ AI, sáng kiến này nhằm tạo ra một hệ sinh thái AI mã nguồn mở, tự trị.

Theo bức thư ngỏ, việc tạm dừng sáu tháng được đề xuất sẽ có sự tham gia của các phòng thí nghiệm AI và các chuyên gia độc lập cùng hợp tác để phát triển một bộ giao thức an toàn dùng chung cho thiết kế và phát triển AI tiên tiến. Các giao thức này sẽ chịu sự kiểm tra và giám sát nghiêm ngặt của các chuyên gia độc lập bên ngoài.

Trong khi đó, trong một diễn biến khác, Chính phủ Vương quốc Anh đã công bố một sách trắng nêu bật cách tiếp cận 'ủng hộ đổi mới' đối với quy định về AI. Khung này đề xuất các biện pháp tăng cường an toàn và trách nhiệm giải trình, mặc dù nó không thiết lập cơ quan quản lý AI chuyên dụng, như Liên minh Châu Âu (EU) đã chọn.

Tim Wright, Đối tác và chuyên gia về quy định AI tại công ty luật Fladgate, đã chia sẻ suy nghĩ của mình về sách trắng của Vương quốc Anh, nhấn mạnh rằng chỉ có thời gian mới cho thấy hiệu quả của phương pháp tiếp cận theo từng ngành. Dù vậy, lập trường này hoàn toàn trái ngược với chiến lược của EU trong việc thực hiện một bộ quy tắc chi tiết và chế độ trách nhiệm pháp lý dưới sự giám sát của một cơ quan quản lý AI duy nhất.

Tại thời điểm viết bài, bức thư ngỏ kêu gọi tạm dừng các hoạt động phát triển AI tiềm tàng nguy hiểm đã thu được 1.123 chữ ký. Sức hấp dẫn ngày càng tăng của các nền tảng low-code và no-code như AppMaster trong việc giảm thiểu nỗi sợ hãi giữa những người ủng hộ AI không còn có thể bị bỏ qua. , vì nó cho phép các doanh nghiệp và cá nhân khai thác lợi ích của công nghệ mà không phải lo ngại về những tiến bộ AI ngoài tầm kiểm soát.

Easy to start
Create something amazing

Experiment with AppMaster with free plan.
When you will be ready you can choose the proper subscription.

Get Started
Elon Musk, Steve Wozniak và hơn 1.000 chuyên gia kêu gọi tạm dừng phát triển AI tiềm tàng nguy hiểm | AppMaster