Ollama , công cụ phổ biến để chạy các mô hình AI cục bộ, đã ra mắt Turbo , một dịch vụ dựa trên đám mây chạy các mô hình mã nguồn mở trên phần cứng trung tâm dữ liệu. Động thái này đánh dấu sự thay đổi đáng kể đối với một công ty đã xây dựng danh tiếng dựa trên suy luận AI cục bộ, khơi mào những cuộc thảo luận sôi nổi trong cộng đồng nhà phát triển về tương lai của điện toán AI riêng tư.
Thông báo này đi kèm với quan hệ đối tác với OpenAI để cung cấp các mô hình gpt-oss mới trong phiên bản 20B và 120B tham số. Turbo hứa hẹn tốc độ suy luận nhanh hơn, hỗ trợ các mô hình lớn hơn và giảm tiêu thụ pin trên máy cục bộ, tất cả trong khi vẫn duy trì giao diện API và CLI quen thuộc của Ollama .
Những Lợi Ích Chính Được Tuyên Bố
- Suy luận nhanh hơn nhờ sử dụng phần cứng cấp trung tâm dữ liệu
- Hỗ trợ các mô hình lớn hơn không thể chạy trên GPU dành cho người tiêu dùng
- Giảm tiêu thụ pin trên các thiết bị cục bộ
- Bảo vệ quyền riêng tư với chính sách không lưu trữ dữ liệu
- Tích hợp liền mạch với các công cụ Ollama hiện có
![]() |
---|
Giống như các thủ thuật nha khoa đòi hỏi các dụng cụ chuyên biệt để điều trị hiệu quả, dịch vụ Turbo của Ollama tận dụng các công nghệ tiên tiến để nâng cao hiệu suất mô hình AI |
Cộng đồng đặt câu hỏi về định hướng chiến lược của Ollama
Việc ra mắt đã chia rẽ cộng đồng, với nhiều người đặt câu hỏi liệu Ollama có đang từ bỏ sứ mệnh cốt lõi của mình hay không. Một số người dùng lo ngại về khả năng chuyển hướng khỏi điện toán cục bộ, đặc biệt là khi các nhà sáng lập của Ollama trước đây đã làm việc tại Docker Desktop , công ty đã trải qua những thay đổi gây tranh cãi trong mô hình cấp phép.
Tuy nhiên, nhóm của Ollama đã phản bác những lo ngại này, nhấn mạnh rằng khả năng suy luận cục bộ vẫn miễn phí và mã nguồn mở. Họ lập luận rằng Turbo chỉ đơn giản cung cấp một lựa chọn cho những người dùng thiếu phần cứng đủ mạnh để chạy các mô hình lớn cục bộ.
Định giá và đề xuất giá trị bị xem xét kỹ lưỡng
Với mức giá 20 đô la Mỹ mỗi tháng, Turbo phải đối mặt với sự cạnh tranh gay gắt từ các nhà cung cấp đã có chỗ đứng. Các nhà phê bình đặt câu hỏi tại sao người dùng lại trả cùng một khoản tiền để truy cập các mô hình mã nguồn mở khi họ có thể nhận được các mô hình độc quyền tiên tiến nhất từ OpenAI hoặc Anthropic với mức giá tương tự.
Dịch vụ hiện tại hoạt động với giới hạn sử dụng theo giờ và theo ngày, mặc dù các chi tiết cụ thể vẫn chưa được tiết lộ. Ollama dự định sớm giới thiệu định giá dựa trên mức sử dụng, điều mà nhiều thành viên cộng đồng tin rằng sẽ cạnh tranh hơn so với mô hình đăng ký hiện tại.
Bảng giá và tính năng Ollama Turbo
- Gói đăng ký hàng tháng: 20 USD
- Các mô hình có sẵn: gpt-oss-20b và gpt-oss-120b (phiên bản xem trước)
- Giới hạn sử dụng: Giới hạn theo giờ và theo ngày (các con số cụ thể chưa được tiết lộ)
- Vị trí phần cứng: Các trung tâm dữ liệu tại Hoa Kỳ
- Tương thích API: Hoạt động với CLI Ollama, API và thư viện JavaScript/Python hiện có
- Định giá tương lai: Dự kiến áp dụng mô hình định giá theo mức sử dụng
Tuyên bố về quyền riêng tư gặp phải sự hoài nghi
Ollama quảng bá Turbo là ưu tiên quyền riêng tư, tuyên bố họ không lưu giữ dữ liệu người dùng và tất cả phần cứng đều được đặt tại Hoa Kỳ. Tuy nhiên, các thành viên cộng đồng vẫn hoài nghi về những lợi thế quyền riêng tư này, lưu ý rằng bất kỳ nhà cung cấp đám mây nào vẫn có thể bị yêu cầu pháp lý hoặc vi phạm dữ liệu.
Một số người dùng quốc tế bày tỏ sự thất vọng rằng dịch vụ có trụ sở tại Mỹ, họ ưa thích xử lý cục bộ cụ thể để tránh các khu vực pháp lý có luật bảo vệ dữ liệu yếu hơn. Điều này làm nổi bật sự căng thẳng đang diễn ra giữa hiệu suất và quyền riêng tư trong các dịch vụ AI.
Cuộc tranh luận về đổi mới kỹ thuật so với wrapper
Việc ra mắt đã khơi lại các cuộc thảo luận về những đóng góp kỹ thuật của Ollama . Trong khi một số người coi nó chỉ là một wrapper xung quanh llama.cpp , những người khác bảo vệ giá trị của nó trong việc làm cho các mô hình AI trở nên dễ tiếp cận thông qua trải nghiệm người dùng vượt trội và triển khai đơn giản.
Nhóm của Ollama đã làm rõ rằng họ đã vượt ra ngoài việc chỉ là một wrapper, phát triển công cụ suy luận riêng cho các mô hình đa phương thức trong khi vẫn sử dụng llama.cpp để hỗ trợ legacy. Họ nhấn mạnh nỗ lực kỹ thuật đáng kể cần thiết để duy trì sự đơn giản của nền tảng.
Sự đơn giản thường bị bỏ qua, nhưng chúng tôi muốn xây dựng thế giới mà chúng tôi muốn thấy.
Kết luận
Việc ra mắt Turbo của Ollama đại diện cho một khoảnh khắc quan trọng đối với công ty và phong trào AI cục bộ rộng lớn hơn. Trong khi dịch vụ giải quyết những nhu cầu thực sự cho người dùng có phần cứng hạn chế, nó cũng đặt ra câu hỏi về cam kết dài hạn đối với điện toán AI ưu tiên cục bộ.
Sự thành công của Turbo có thể sẽ phụ thuộc vào việc tìm ra sự cân bằng phù hợp giữa định giá, hiệu suất và các tính năng quyền riêng tư để phân biệt nó với cả các nhà cung cấp đám mây lớn và các giải pháp hoàn toàn cục bộ. Khi bối cảnh AI tiếp tục phát triển, khả năng phục vụ cả người dùng cục bộ và đám mây của Ollama có thể quyết định mức độ liên quan trong tương lai của nó trong một thị trường ngày càng cạnh tranh.
Tham khảo: Turbo