هوش مصنوعی به صورت لوکال

سر فصل های مقاله

برای مثال من در حال حاضر از gemma 2 که مدل ۲۷ میلیارد پارامتری هست استفاده میکنم روی لوکال

چطور میتونید مدل های هوش مصنوعی رو روی لوکال نصب بکنید ؟

۱- دانلود ollama از اینجا :

https://github.com/ollama/ollama/releases

۲- یکی از مدل هارو انتخاب کنید از اینجا :‌

https://ollama.com/library

برای مثال مدل ۸ میلیارد پارامتری llama 3.1 رو توی این بخش میتونید ببینید :

https://ollama.com/library/llama3.1

برای نصبش بعد از نصب ollama در مرحله ۱ میتونید کامند زیر رو توی ترمنیال بزنید :

ollama run llama3.1

مدلش دانلود میشه و میاد بالا میتونید توی ترمینال باهاش حرف بزنید اما برای اینکه یک اینترفیس وب مثل من داشته باشید داکر رو نصب کنید و بعد این اینترفیس رو طبق توضیحات گیتهابش نصب کنید :‌

 

https://github.com/open-webui/open-webui

تبریک، الان شما یک مدل هوش مصنوعی به صورت لوکال دارید.