Bagaimana untuk menjalankan LLMs secara tempatan dalam 1 minit?
Mar 11, 2025 am 09:42 AM
Mari kita lihat bagaimana untuk menjalankan LLM pada sistem anda dengan Ollama dan memeluk wajah hanya beberapa langkah mudah!
Video berikut menerangkan langkah demi langkah:
Bagaimana untuk menjalankan llm secara tempatan dalam satu minit [pemula mesra]
Pautan video
- Dylan (@dylan Ebert ) 6 Januari 2025
Langkah untuk menjalankan LLM Locally
Langkah 1: Muat turun ollamaPertama, cari "Ollama" pada penyemak imbas anda, muat turun dan pasang pada sistem anda.
Langkah 2: Cari sumber terbuka yang terbaik LLM
Seterusnya, cari "Ranking LLM yang memeluk" untuk mencari senarai model bahasa sumber terbuka.
Langkah 3: Tapis model berdasarkan peranti anda
Selepas melihat senarai, gunakan penapis untuk mencari model terbaik untuk persediaan anda. Sebagai contoh:
- Pilih peralatan gred pengguna rumah.
- Hanya pilih penyedia rasmi untuk mengelakkan model tidak rasmi atau tidak disahkan.
- Jika komputer riba anda dilengkapi dengan GPU rendah, pilih model yang direka untuk peranti kelebihan.
Klik pada model peringkat atas, seperti Qwen/Qwen2.5-35b . Di sudut kanan atas skrin, klik "Gunakan model ini". Walau bagaimanapun, anda tidak dapat mencari Ollama sebagai pilihan di sini.
Ini kerana Ollama menggunakan format khas yang dipanggil GGUF, yang merupakan versi yang lebih kecil, lebih cepat dan kuantitatif model.
(Nota: kuantisasi sedikit akan mengurangkan kualiti, tetapi menjadikannya lebih sesuai untuk kegunaan tempatan.)
Dapatkan model dalam format GGUF: Susun model -model ini dengan muat turun yang paling.Cari model dengan "gguf" dalam nama mereka, seperti Bartowski . Ini adalah pilihan yang baik.
- Pilih model ini dan klik "Gunakan model ini dengan Ollama".
- Untuk tetapan kuantisasi, pilih saiz fail yang 1-2GB lebih kecil daripada RAM GPU anda, atau pilih pilihan yang disyorkan, seperti Q5_K_M.
Langkah 5: Muat turun dan mula menggunakan model
Salin arahan yang disediakan untuk model pilihan anda dan tampalnya ke terminal anda. Tekan kekunci "Enter" dan tunggu muat turun selesai.
Selepas muat turun selesai, anda boleh mula berbual dengan model seperti yang anda lakukan dengan LLM lain. Mudah dan menyeronokkan!
Itu sahaja! Anda kini menjalankan LLM yang kuat di dalam peranti anda. Sila beritahu saya jika langkah -langkah ini berfungsi untuk anda di bahagian komen di bawah.
Atas ialah kandungan terperinci Bagaimana untuk menjalankan LLMs secara tempatan dalam 1 minit?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undress AI Tool
Gambar buka pakaian secara percuma

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Berikut adalah sepuluh trend yang menarik yang membentuk semula landskap AI perusahaan. Komitmen kewangan untuk llmsorganizations secara signifikan meningkatkan pelaburan mereka di LLM, dengan 72% menjangkakan perbelanjaan mereka meningkat tahun ini. Pada masa ini, hampir 40% a

Pelaburan adalah berkembang pesat, tetapi modal sahaja tidak mencukupi. Dengan penilaian yang semakin meningkat dan tersendiri pudar, pelabur dalam dana usaha yang berfokus pada AI mesti membuat keputusan utama: Beli, membina, atau rakan kongsi untuk mendapatkan kelebihan? Inilah cara menilai setiap pilihan dan PR

Pendedahan: Syarikat saya, Tirias Research, telah berunding untuk IBM, NVIDIA, dan syarikat -syarikat lain yang disebutkan dalam artikel ini. Pemandu Growth Surge dalam penggunaan AI generatif lebih dramatik daripada unjuran yang paling optimis dapat diramalkan. Kemudian, a

Jurang antara penggunaan yang meluas dan kesediaan emosi mendedahkan sesuatu yang penting tentang bagaimana manusia terlibat dengan pelbagai sahabat digital mereka. Kami memasuki fasa kewujudan bersama di mana algoritma menenun ke dalam harian kami

Hari -hari itu bernombor, terima kasih kepada AI. Cari lalu lintas untuk perniagaan seperti tapak perjalanan kayak dan syarikat edtech Chegg menurun, sebahagiannya kerana 60% carian di laman web seperti Google tidak mengakibatkan pengguna mengklik sebarang pautan, menurut satu stud

Mari kita bercakap mengenainya. Analisis terobosan AI yang inovatif ini adalah sebahagian daripada liputan lajur Forbes yang berterusan pada AI terkini, termasuk mengenal pasti dan menerangkan pelbagai kerumitan AI yang memberi kesan (lihat pautan di sini). Menuju ke Agi dan

Mari kita lihat dengan lebih dekat apa yang saya dapati paling penting - dan bagaimana Cisco dapat membina usaha semasa untuk merealisasikan cita -citanya. (Nota: Cisco adalah pelanggan penasihat firma saya, Moor Insights & Strategy.) Berfokus pada AIS dan CU Agentik dan CU

Pernahkah anda cuba membina aplikasi Model Besar (LLM) anda sendiri? Pernah tertanya -tanya bagaimana orang membuat aplikasi LLM mereka sendiri untuk meningkatkan produktiviti mereka? Aplikasi LLM telah terbukti berguna dalam setiap aspek
