OpenAI Ra mắt Gpt-oss-120b và Gpt-oss-20b, mang những mô hình tiên tiến nhất đến các thiết bị cục bộ
Tóm lại OpenAI đã phát hành hai mô hình mở mạnh mẽ, gpt-oss-120b và gpt-oss-20b, cho phép hiệu suất AI cục bộ nâng cao mà không cần truy cập internet, đánh dấu bước tiến lớn trong khả năng tiếp cận của nhà phát triển.
Tổ chức nghiên cứu trí tuệ nhân tạo OpenAI đã công bố phát hành hai mô hình ngôn ngữ mở trọng số nâng cao mang tên gpt-oss-120b và gpt-oss-20b. Các mô hình này mang lại hiệu suất mạnh mẽ trong các ứng dụng thực tế trong khi vẫn duy trì chi phí vận hành thấp. Được phát hành theo giấy phép Apache 2.0 linh hoạt, chúng vượt trội hơn các mô hình mở khác có quy mô tương tự về các tác vụ suy luận, thể hiện khả năng sử dụng công cụ mạnh mẽ và được tối ưu hóa để vận hành hiệu quả trên phần cứng cấp độ người dùng. Quá trình đào tạo bao gồm các kỹ thuật học tăng cường kết hợp với những hiểu biết sâu sắc thu được từ OpenAIcác mô hình nội bộ tiên tiến nhất, bao gồm o3 và các hệ thống tiên tiến khác.
Mô hình gpt-oss-120b hoạt động gần như ngang bằng với OpenAIMô hình o4-mini của 's dựa trên các tiêu chuẩn lý luận cơ bản và chạy hiệu quả trên một GPU 80 GB duy nhất. Trong khi đó, mô hình gpt-oss-20b đạt được kết quả tương đương với OpenAIO3-mini có thể hoạt động trên các điểm chuẩn phổ biến và có khả năng hoạt động trên các thiết bị biên chỉ với 16 GB bộ nhớ, phù hợp cho các ứng dụng trên thiết bị, suy luận cục bộ hoặc thử nghiệm nhanh mà không yêu cầu cơ sở hạ tầng đắt tiền. Cả hai mô hình đều thể hiện khả năng mạnh mẽ trong việc sử dụng công cụ, gọi hàm ít lần, suy luận chuỗi suy nghĩ (CoT) như đã được chứng minh trong đánh giá tác nhân Tau-Bench và HealthBench, đôi khi vượt trội hơn các mô hình độc quyền như OpenAI o1 và GPT-4o.
Các mô hình này tương thích với API Responses và được thiết kế để tích hợp vào quy trình làm việc của agentic, cung cấp khả năng làm theo hướng dẫn nâng cao, sử dụng công cụ bao gồm tìm kiếm trên web và thực thi mã Python, cũng như khả năng lập luận. Điều này bao gồm khả năng lập luận có thể điều chỉnh để tối ưu hóa cho các tác vụ không yêu cầu lập luận phức tạp hoặc ưu tiên độ trễ thấp trong kết quả đầu ra cuối cùng. Cả hai mô hình đều có thể tùy chỉnh hoàn toàn, hỗ trợ lập luận chuỗi suy nghĩ đầy đủ và hỗ trợ các định dạng đầu ra có cấu trúc.
Các cân nhắc về an toàn là trọng tâm trong việc phát hành các mô hình này, đặc biệt là do tính chất mở của chúng. Bên cạnh các khóa đào tạo và đánh giá an toàn toàn diện, một lớp thử nghiệm bổ sung đã được áp dụng thông qua phiên bản tinh chỉnh của gpt-oss-120b theo hướng đối kháng. OpenAIKhung chuẩn bị của GPT-OSS. Các mô hình GPT-OSS đạt được hiệu suất chuẩn mực an toàn tương đương với OpenAICác mô hình độc quyền mới nhất của ', cung cấp cho các nhà phát triển những đảm bảo an toàn tương tự. Kết quả chi tiết và thông tin bổ sung có sẵn trong bài nghiên cứu và thẻ mô hình, với phương pháp luận được các chuyên gia bên ngoài đánh giá, thể hiện tiến bộ trong việc thiết lập các tiêu chuẩn an toàn mới cho các mô hình trọng lượng mở.
OpenAI đã hợp tác với các đối tác ban đầu như AI Sweden, Orange và Snowflake để khám phá các ứng dụng thực tế của các mô hình mở này, bao gồm lưu trữ tại chỗ để bảo mật dữ liệu và tinh chỉnh các tập dữ liệu chuyên biệt. Việc cung cấp các mô hình mở này nhằm mục đích trao quyền cho nhiều người dùng - từ các nhà phát triển cá nhân đến các doanh nghiệp lớn và các cơ quan chính phủ - để chạy và tùy chỉnh AI trên cơ sở hạ tầng của riêng họ. Khi kết hợp với các mô hình khác có thể truy cập thông qua OpenAIAPI của, các nhà phát triển có thể lựa chọn từ nhiều tùy chọn cân bằng giữa hiệu suất, chi phí và độ trễ để hỗ trợ nhiều quy trình làm việc AI khác nhau.
Gpt-oss-120b và Gpt-oss-20b hiện có sẵn miễn phí với hỗ trợ phần cứng và nền tảng mở rộng
Các trọng số cho cả gpt-oss-120b và gpt-oss-20b đều có thể tải xuống miễn phí trên Hugging Face và được cung cấp với lượng tử hóa gốc ở định dạng MXFP4. Điều này cho phép mô hình gpt-oss-120b hoạt động trong phạm vi dung lượng bộ nhớ 80GB, trong khi mô hình gpt-oss-20b chỉ yêu cầu 16GB. Cả hai mô hình đều đã trải qua quá trình đào tạo hậu kỳ bằng định dạng dấu nhắc Harmony, và một trình kết xuất Harmony mã nguồn mở có sẵn bằng Python và Rust để tạo điều kiện thuận lợi cho việc áp dụng. Ngoài ra, các triển khai tham chiếu được cung cấp để chạy suy luận bằng PyTorch và nền tảng Metal của Apple, cùng với một bộ công cụ ví dụ cho ứng dụng thực tế.
Các mô hình này được thiết kế để linh hoạt và dễ sử dụng, hỗ trợ triển khai cục bộ, trên thiết bị hoặc thông qua các nhà cung cấp suy luận của bên thứ ba. Để tăng cường khả năng truy cập, các quan hệ đối tác đã được thiết lập trước khi ra mắt với các nền tảng triển khai chính bao gồm Azure, Hugging Face, vLLM, Ollama, llama.cpp, LM Studio, AWS, Fireworks, Together AI, Baseten, Databricks, Vercel, Cloudflare và OpenRouter. Chúng tôi cũng hợp tác với các nhà sản xuất phần cứng như NVIDIA, AMD, Cerebras và Groq để đảm bảo hiệu suất tối ưu trên nhiều hệ thống khác nhau.
Cùng với bản phát hành này, Microsoft đang cung cấp các phiên bản tối ưu hóa GPU của mô hình gpt-oss-20b cho các thiết bị Windows. Được hỗ trợ bởi ONNX Runtime, các phiên bản này hỗ trợ suy luận cục bộ và có thể truy cập thông qua Foundry Local và AI Toolkit cho VS Code, giúp đơn giản hóa quy trình tích hợp cho các nhà phát triển trên nền tảng Windows.
Đối với các nhà phát triển đang tìm kiếm các mô hình hoàn toàn tùy chỉnh, có khả năng tinh chỉnh và triển khai trong môi trường riêng của họ, các mô hình gpt-oss cung cấp một giải pháp phù hợp. Ngược lại, đối với những người yêu cầu khả năng đa phương thức, công cụ tích hợp sẵn và tích hợp nền tảng liền mạch, các mô hình được cung cấp thông qua nền tảng API vẫn là lựa chọn ưu tiên. Phản hồi của nhà phát triển tiếp tục được theo dõi, với khả năng xem xét hỗ trợ API cho các mô hình gpt-oss trong tương lai.
Việc giới thiệu gpt-oss-120b và gpt-oss-20b đánh dấu một bước tiến đáng chú ý trong lĩnh vực mô hình trọng số mở, mang lại những cải tiến đáng kể về khả năng suy luận và độ an toàn ở quy mô của chúng. Các mô hình mở này bổ sung cho các mô hình lưu trữ độc quyền bằng cách cung cấp cho các nhà phát triển một bộ công cụ đa dạng hơn để tạo điều kiện thuận lợi cho nghiên cứu tiên tiến, kích thích đổi mới và thúc đẩy phát triển AI an toàn hơn, minh bạch hơn trên nhiều ứng dụng khác nhau.
Hơn nữa, các mô hình mở này giúp giảm rào cản gia nhập cho các thị trường mới nổi, các lĩnh vực hạn chế về nguồn lực và các tổ chức nhỏ hơn, những nơi có thể gặp khó khăn khi áp dụng các giải pháp độc quyền. Bằng cách cung cấp các công cụ mạnh mẽ và dễ tiếp cận, người dùng trên toàn thế giới được trao quyền để phát triển, đổi mới và tạo ra những cơ hội mới. Sự phổ biến rộng rãi của các mô hình trọng lượng mở có năng lực này được sản xuất tại Hoa Kỳ góp phần mở rộng khả năng tiếp cận AI một cách công bằng.
Một hệ sinh thái đáng tin cậy gồm các mô hình mở là một thành phần thiết yếu trong việc thúc đẩy khả năng tiếp cận AI rộng rãi và toàn diện. Các nhà phát triển và nhà nghiên cứu được khuyến khích sử dụng các mô hình này để thử nghiệm, hợp tác và mở rộng ranh giới của những gì có thể đạt được. Những tiến bộ không ngừng trong lĩnh vực này đang được kỳ vọng với sự quan tâm lớn.
Tuyên bố miễn trừ trách nhiệm: Mọi thông tin trong bài viết đều thể hiện quan điểm của tác giả và không liên quan đến nền tảng. Bài viết này không nhằm mục đích tham khảo để đưa ra quyết định đầu tư.
Bạn cũng có thể thích
Các cặp giao dịch ký quỹ spot mới — SAPIEN/USDT
CandyBomb x SAPIEN: Giao dịch futures để chia sẻ 150,000 SAPIEN!
Bitget Trading Club Championship (Giai đoạn 5) – Chia sẻ 80,000 BGB, tối đa 800 BGB cho mỗi người dùng!
Lễ hội Bitget x DGC: Chia sẻ 6.480.000.000 DGC
Thịnh hành
ThêmGiá tiền điện tử
Thêm








