Ahmad Shadid của O.XYZ cảnh báo các ưu tiên về an ninh quốc gia có thể làm suy yếu tính công bằng và minh bạch trong AI
Tóm lại Ahmad Shadid nhấn mạnh rằng áp lực chính trị đã dẫn đến việc giữ lại báo cáo của NIST vạch trần các lỗ hổng AI quan trọng, nhấn mạnh nhu cầu cấp thiết về nghiên cứu minh bạch, độc lập và cởi mở để thúc đẩy tính an toàn và công bằng của AI.
Trước lễ nhậm chức của tổng thống Hoa Kỳ hiện tại, Donald Trump, Viện Tiêu chuẩn và Công nghệ (NIST) đã hoàn thành báo cáo về tính an toàn của các mô hình AI tiên tiến.
Vào tháng 139 năm ngoái, một hội nghị về an ninh máy tính tại Arlington, Virginia đã quy tụ một nhóm các nhà nghiên cứu AI tham gia vào một bài tập "red teaming" tiên phong nhằm kiểm tra nghiêm ngặt một mô hình ngôn ngữ hiện đại và các hệ thống AI khác. Trong vòng hai ngày, các nhóm này đã phát hiện ra XNUMX phương pháp mới khiến hệ thống gặp trục trặc, chẳng hạn như tạo ra thông tin sai lệch hoặc làm lộ dữ liệu nhạy cảm. Quan trọng hơn, những phát hiện của họ cũng tiết lộ những điểm yếu trong một tiêu chuẩn gần đây của chính phủ Hoa Kỳ, nhằm hướng dẫn các công ty đánh giá mức độ an toàn của hệ thống AI.
Nhằm mục đích giúp các tổ chức đánh giá hệ thống AI của họ, báo cáo là một trong số nhiều tài liệu về AI do NIST biên soạn bị giữ lại không công bố do có khả năng xung đột với định hướng chính sách của chính quyền mới.
Trong một cuộc phỏng vấn với Mpost, Ahmad Shadid , Giám đốc điều hành của O.XYZ , một hệ sinh thái phi tập trung do AI dẫn đầu, đã thảo luận về những nguy cơ của áp lực chính trị và tính bí mật trong nghiên cứu an toàn AI.
Ai được phép công bố kết quả nghiên cứu của nhóm đỏ NIST?
Theo Ahmad Shadid, áp lực chính trị có thể ảnh hưởng đến truyền thông, và báo cáo của NIST là một ví dụ rõ ràng về điều này. Ông nhấn mạnh sự cần thiết của các nhà nghiên cứu độc lập, các trường đại học và phòng thí nghiệm tư nhân không bị ràng buộc bởi những áp lực như vậy.
“Thách thức nằm ở chỗ họ không phải lúc nào cũng có cùng quyền truy cập vào tài nguyên hoặc dữ liệu. Đó là lý do tại sao chúng ta cần — hay nói đúng hơn là tất cả mọi người đều cần — một cơ sở dữ liệu mở toàn cầu về các lỗ hổng AI mà bất kỳ ai cũng có thể đóng góp và học hỏi,” Ahmad Shadid nói. MpostÔng nói thêm: “Không nên có bất kỳ bộ lọc nào của chính phủ hoặc doanh nghiệp đối với những nghiên cứu như vậy”.
Ahmad Shadid cảnh báo rằng việc che giấu lỗ hổng AI sẽ cản trở tiến độ an toàn và tiếp tay cho những kẻ xấu.
Ông giải thích thêm về những rủi ro liên quan đến việc che giấu lỗ hổng với công chúng và cách những hành động như vậy có thể cản trở tiến trình đảm bảo an toàn AI.
Ahmad Shadid cho biết: "Việc che giấu các nghiên cứu giáo dục quan trọng sẽ giúp những kẻ xấu có lợi thế trong khi vẫn giữ kín thông tin cho những người tốt".
Các công ty, nhà nghiên cứu và công ty khởi nghiệp không thể giải quyết những vấn đề mà họ không biết, điều này có thể tạo ra những trở ngại tiềm ẩn cho các công ty AI và dẫn đến những sai sót trong các mô hình AI.
Theo Ahmad Shadid, văn hóa nguồn mở là nền tảng cho cuộc cách mạng phần mềm, hỗ trợ cả phát triển liên tục lẫn củng cố các chương trình thông qua việc xác định tập thể các lỗ hổng. Tuy nhiên, trong lĩnh vực AI, cách tiếp cận này đã phần lớn bị thu hẹp — ví dụ, Meta được cho là đang cân nhắc việc chuyển quy trình phát triển của mình sang mã nguồn đóng.
Ahmad Shadid cho biết: "Những gì NIST che giấu công chúng do áp lực chính trị có thể là kiến thức chính xác mà ngành công nghiệp cần để giải quyết một số rủi ro liên quan đến LLM hoặc ảo giác". Mpost. “Ai mà biết được, những kẻ xấu có thể đang bận rộn lợi dụng '139 cách mới để phá vỡ hệ thống AI', được đưa vào báo cáo”, ông nói thêm.
Chính phủ có xu hướng ưu tiên an ninh quốc gia hơn sự công bằng và minh bạch trong AI, làm suy yếu niềm tin của công chúng
Việc ngăn chặn nghiên cứu về an toàn phản ánh một vấn đề rộng hơn trong đó các chính phủ ưu tiên an ninh quốc gia hơn là sự công bằng, thông tin sai lệch và các mối lo ngại về thiên vị.
Ahmad Shadid nhấn mạnh rằng bất kỳ công nghệ nào được công chúng sử dụng đều phải minh bạch và công bằng. Ông nhấn mạnh sự cần thiết của tính minh bạch hơn là sự bí mật, đồng thời lưu ý rằng tính bảo mật của AI càng nhấn mạnh tầm quan trọng địa chính trị của nó.
Các nền kinh tế lớn như Hoa Kỳ và Trung Quốc đang đầu tư mạnh mẽ—bao gồm hàng tỷ đô la vào trợ cấp và thu hút nhân tài tích cực—để giành lợi thế trong cuộc đua AI.
“Khi các chính phủ đặt thuật ngữ 'an ninh quốc gia' lên trên sự công bằng, thông tin sai lệch và định kiến - đối với một công nghệ như AI đang nằm trong túi của 378 triệu người dùng - họ thực sự đang nói rằng những vấn đề đó có thể chờ đợi. Điều này chỉ có thể dẫn đến việc xây dựng một hệ sinh thái AI bảo vệ quyền lực, chứ không phải con người”, ông kết luận.
Tuyên bố miễn trừ trách nhiệm: Mọi thông tin trong bài viết đều thể hiện quan điểm của tác giả và không liên quan đến nền tảng. Bài viết này không nhằm mục đích tham khảo để đưa ra quyết định đầu tư.
Bạn cũng có thể thích
Các cặp giao dịch ký quỹ spot mới — SAPIEN/USDT
CandyBomb x SAPIEN: Giao dịch futures để chia sẻ 150,000 SAPIEN!
Bitget Trading Club Championship (Giai đoạn 5) – Chia sẻ 80,000 BGB, tối đa 800 BGB cho mỗi người dùng!
Lễ hội Bitget x DGC: Chia sẻ 6.480.000.000 DGC
Thịnh hành
ThêmGiá tiền điện tử
Thêm








