Asal
🇺🇸Amerika Syarikat
Sesuai untuk
Asal
🇺🇸Amerika Syarikat
Sesuai untuk
Tentang Ollama
Ollama telah merevolusikan akses kepada model bahasa setempat dengan menjadikannya semudah arahan terminal. Dicipta pada 2023, alat sumber terbuka ini membolehkan anda memuat turun, menjalankan dan mengurus LLM terus pada perkakasan anda — sama ada Mac dengan Apple Silicon, PC dengan GPU NVIDIA, atau pelayan Linux.
Pendekatan Ollama adalah mudah secara radikal: taip ollama run llama3.3 dan model memuat turun, mengkonfigurasi sendiri dan bermula secara automatik. Lebih 40,000 integrasi komuniti menyambung kepada Ollama, daripada antara muka web seperti Open WebUI hingga IDE pembangunan.
Pada 2025, Ollama melancarkan pelan awan (Pro pada $20/bulan, Max pada $100/bulan) menawarkan akses kepada model lebih berkuasa yang dihoskan pada pelayan khusus, sambil mengekalkan pelaksanaan setempat percuma dan tanpa had. Data anda sentiasa kekal peribadi: tiada prompt atau respons yang dilog atau digunakan untuk latihan.
Alat ini menyokong kuantisasi GGUF, pecutan GPU (CUDA, ROCm, Metal), menjalankan pelbagai model serentak, dan mendedahkan API REST setempat yang serasi dengan OpenAI. Ia merupakan pilihan utama untuk pembangun yang ingin mengintegrasikan AI setempat ke dalam projek, saluran paip automasi, atau aliran kerja RAG mereka.
- Pemasangan satu arahan, persediaan serta-merta
- Pustaka ribuan model sumber terbuka
- 100% peribadi — tiada data dihantar ke awan
- API REST tempatan serasi OpenAI
- Sokongan Apple Silicon cemerlang (M1/M2/M3/M4)
- Komuniti besar dengan 40,000+ integrasi
- Percuma dan tanpa had untuk kegunaan tempatan
- Pelan awan pilihan untuk model lebih besar
- Antara muka CLI sahaja, tiada GUI natif
- Memerlukan perkakasan berkuasa untuk model besar
- Konfigurasi GPU boleh menjadi kompleks di Linux
- Pelan awan baharu dengan model terhad
- Tiada pengurusan berbilang pengguna terbina dalam
Ciri-ciri
Harga
- Unlimited local models
- CLI, API and desktop apps
- 40,000+ community integrations
- Cloud model access (limited)
- Run on your hardware
- 100% private data
- Everything in Free
- 3 collaborators per model
- 3 private models
- More cloud usage
- Run multiple cloud models simultaneously
- Everything in Pro
- 5 collaborators per model
- 5 private models
- 5x more usage than Pro
- 5+ simultaneous cloud models
- Unlimited local models
- CLI, API and desktop apps
- 40,000+ community integrations
- Cloud model access (limited)
- +2 lagi...
- Everything in Free
- 3 collaborators per model
- 3 private models
- More cloud usage
- +1 lagi...
- Everything in Pro
- 5 collaborators per model
- 5 private models
- 5x more usage than Pro
- +1 lagi...
Ulasan pengguna
Bandingkan Ollama
Lihat semua perbandinganLihat semua



Perbandingan popular
Soalan lazim tentang OllamaSoalan Lazim
Bersedia untuk mencuba Ollama?
Terokai semua ciri-ciri dan mula menggunakan Ollama hari ini.

Surat Berita
Sentiasa dikemas kini
Dapatkan alat AI terkini dan petua eksklusif kami setiap minggu.
Tiada spam. Berhenti langgan dalam satu klik.

