Forwarded from Singular Thinker
Can LLMs Separate Instructions From Data? And What Do We Even Mean By That?
I saw this thread on X and get excited.
I didn't go through the paper, but I liked the way of thinking and modeling the problem with information theory. It was inspirational. In addition, imo the main problem is very related to the Godel Incompleteness theorem and/or the halting problem. In a nutshell, the system could interpret a sentence both as an instruction and data, which is the underlying cause of many self-referential paradoxes.
#paper
@SingularThinker
I saw this thread on X and get excited.
I didn't go through the paper, but I liked the way of thinking and modeling the problem with information theory. It was inspirational. In addition, imo the main problem is very related to the Godel Incompleteness theorem and/or the halting problem. In a nutshell, the system could interpret a sentence both as an instruction and data, which is the underlying cause of many self-referential paradoxes.
#paper
@SingularThinker
نوشتههای ترمینالی
میدونستید ممکنه یه دقیقهای ۶۱ ثانیه باشه؟ به این ترتیب: When do leap seconds occur? Leap seconds have always occurred at the end of December or the end of June, on the last second of the UTC day. The designation of the sequence of seconds is: 23h 59m…
اگه در مورد مسائل زمان در سیستمهای کامپیوتری علاقه دارید بدونید، این ویدیوی خیلی جالبیه:
https://www.youtube.com/watch?v=-5wpm-gesOY
https://www.youtube.com/watch?v=-5wpm-gesOY
YouTube
The Problem with Time & Timezones - Computerphile
A web app that works out how many seconds ago something happened. How hard can coding that be? Tom Scott explains how time twists and turns like a twisty-turny thing. It's not to be trifled with!
A Universe of Triangles: http://www.youtube.com/watch?v=KdyvizaygyY…
A Universe of Triangles: http://www.youtube.com/watch?v=KdyvizaygyY…
نوشتههای ترمینالی
آسیبپذیری های نرمافزارها این روزها همچنان ادامه داره روز ۲۹ مارچ یه آسیبپذیری روی xz کشف شده، ولی تفاوتش با آسیبپذیری های معمولی اینه که این، به شکل عمدی توی نرمافزار توسط یکی از maintainer ها با ۲ سال سابقه جاگذاری شده. این خیلی ترسناک میکنه قضیه رو،…
اگه دوست دارید در مورد جنبهی فنی این حمله بیشتر بدوند که چطوری xz به openssh وصل میشه و چطوری میشه که هکر میتونه وارد بشه، این ویدیو اطلاعات خوبی داشت:
https://www.youtube.com/watch?v=jqjtNDtbDNI
https://www.youtube.com/watch?v=jqjtNDtbDNI
YouTube
secret backdoor found in open source software (xz situation breakdown)
Backdoor found in xz liblzma specifically targets the RSA implementation of OpenSSH. Story still developing.
https://openwall.com/lists/oss-security/2024/03/29/4
🏫 COURSES 🏫 Learn to code in C at https://lowlevel.academy
📰 NEWSLETTER 📰 Sign up for our…
https://openwall.com/lists/oss-security/2024/03/29/4
🏫 COURSES 🏫 Learn to code in C at https://lowlevel.academy
📰 NEWSLETTER 📰 Sign up for our…
محدودیت و بنچمارک چنلهای گولنگ
https://tpaschalis.me/channels-limitations-speed/
https://tpaschalis.me/channels-limitations-speed/
tpaschalis.me
What are the limits of Go channels, and just how fast are they?
Intro
Forwarded from It's FOSS
Cheers to 19 years of Git! 🎉 Linus Torvalds' genius creation still fuels seamless collaboration in tech today. 🚀 #Git #LinusTorvalds
در مورد اشتباهات سهوی و امکان undo کردن در سیستمهای کامپیوتری
ویدیوی فان و جالبی بود
https://www.youtube.com/watch?v=X6NJkWbM1xk
ویدیوی فان و جالبی بود
https://www.youtube.com/watch?v=X6NJkWbM1xk
YouTube
The Worst Typo I Ever Made
When 'undo' won't do. • Sponsored by Dashlane, the password manager. Get a 30-day free trial at https://www.dashlane.com/tomscott • MORE BASICS: https://www.youtube.com/playlist?list=PL96C35uN7xGLLeET0dOWaKHkAlPsrkcha
Written with Sean Elliott https://t…
Written with Sean Elliott https://t…
مسئلهی ۲ ژنرال:
چطور دو تا سیستم کامپیوتری مستقل از طریق یه شبکه که تضمینی بابت رسیدن بسته نمیده، میتونن مطمئن بشن پیامشون رسیده؟
https://www.youtube.com/watch?v=IP-rGJKSZ3s
چطور دو تا سیستم کامپیوتری مستقل از طریق یه شبکه که تضمینی بابت رسیدن بسته نمیده، میتونن مطمئن بشن پیامشون رسیده؟
https://www.youtube.com/watch?v=IP-rGJKSZ3s
YouTube
The Two Generals’ Problem
Time to tell a story about idempotency, computer science, and the Night of the Multiple Orders. • Sponsored by Dashlane —try 30 days for free at: https://www.dashlane.com/tomscott
MORE BASICS: https://www.youtube.com/playlist?list=PL96C35uN7xGLLeET0dOWaKHkAlPsrkcha…
MORE BASICS: https://www.youtube.com/playlist?list=PL96C35uN7xGLLeET0dOWaKHkAlPsrkcha…
اگه با کامندلاین لینوکس کار کرده باشید احتمالا با cat و head و tail آشنا هستین. اما چندین دستور دیگه هم داریم که کار text manipulation رو انجام میدن. مثلا ممکنه با sort/uniq و wc هم آشنا باشید.
اگه دوست دارید یه کتابچهی کامل در این مورد ببینید این کتاب رو پیشنهاد میکنم:
https://learnbyexample.github.io/cli_text_processing_coreutils/preface.html
اگه دوست دارید یه کتابچهی کامل در این مورد ببینید این کتاب رو پیشنهاد میکنم:
https://learnbyexample.github.io/cli_text_processing_coreutils/preface.html
learnbyexample.github.io
CLI text processing with GNU Coreutils
Example based guide for specialized text processing with GNU Coreutils
اگه یادتون باشه کتاب text manipulation با کمک ابزارهای gnuیی رو با هم دیدیم. از همون نویسنده چند تا کتاب قشنگ دیگه هم هست که میتونید رایگان و آزاد بخونید:
آموزش بشاسکریپت، شامل دستورهای اولیه، انواع quote کردن و expansionها و redirect و کلی قابلیتهای جالبتر
https://learnbyexample.github.io/cli-computing/preface.html
(خیلی توصیه میشه)
آموزش grep
https://learnbyexample.github.io/learn_gnugrep_ripgrep/preface.html
آموزش sed
https://learnbyexample.github.io/learn_gnused/
آموزش awk
https://learnbyexample.github.io/learn_gnuawk/
آموزش ویم: کتاب خوبی بود و مطالب intermediate خوبی داشت ولی برای شروع توصیه نمیکنم. اگه یه مقدار استفاده کردین، برای یه جمعبندی و یادآوری میتونه خوب باشه به نظرم.
https://learnbyexample.github.io/vim_reference/preface.html
آموزش بشاسکریپت، شامل دستورهای اولیه، انواع quote کردن و expansionها و redirect و کلی قابلیتهای جالبتر
https://learnbyexample.github.io/cli-computing/preface.html
(خیلی توصیه میشه)
آموزش grep
https://learnbyexample.github.io/learn_gnugrep_ripgrep/preface.html
آموزش sed
https://learnbyexample.github.io/learn_gnused/
آموزش awk
https://learnbyexample.github.io/learn_gnuawk/
آموزش ویم: کتاب خوبی بود و مطالب intermediate خوبی داشت ولی برای شروع توصیه نمیکنم. اگه یه مقدار استفاده کردین، برای یه جمعبندی و یادآوری میتونه خوب باشه به نظرم.
https://learnbyexample.github.io/vim_reference/preface.html
learnbyexample.github.io
Linux Command Line Computing
Linux Command Line and Shell Scripting for beginner to intermediate level users
نوشتههای ترمینالی
اگه در مورد مسائل زمان در سیستمهای کامپیوتری علاقه دارید بدونید، این ویدیوی خیلی جالبیه: https://www.youtube.com/watch?v=-5wpm-gesOY
همچنین این مطلب هم مطلب جالبیه:
https://infiniteundo.com/post/25326999628/falsehoods-programmers-believe-about-time
https://infiniteundo.com/post/25326999628/falsehoods-programmers-believe-about-time
Tumblr
Falsehoods programmers believe about time
Over the past couple of years [I have spent a lot of time][checklist] debugging other engineers' test code. This was interesting work, occasionally frustrating but always informative. One might not...
چطور عدم توجه به مشکلات زمان، کلادفلیر را دچار panic کرد؟
خلاصه: یادتون نره که time.Now میتونه همیشه به جلو حرکت نکنه و گاهی به عقب حرکت کنه.
https://blog.cloudflare.com/how-and-why-the-leap-second-affected-cloudflare-dns/
خلاصه: یادتون نره که time.Now میتونه همیشه به جلو حرکت نکنه و گاهی به عقب حرکت کنه.
https://blog.cloudflare.com/how-and-why-the-leap-second-affected-cloudflare-dns/
The Cloudflare Blog
How and why the leap second affected Cloudflare DNS
At midnight UTC on New Year’s Day, deep inside Cloudflare’s custom RRDNS software, a number went negative when it should always have been, at worst, zero. A little later this negative value caused RRDNS to panic.
یه مشکلی که alias ها توی شلهامون دارن، اینه که گاهی یادمون میره بعد یه مدت که دستور اصلی چی بود، هم اینکه تاریخچه کامندهامون نامرتبه و دیگه قابلیت سرچ رو به راحتی نداره.
پلاگین abbr برای zsh کار خلاقانهای که انجام میده اینه که میگه بیا aliasها رو بده به من، حالا هر موقع وارد کردی و خواستی دستور را اجرا کنی، من expandش میکنم به دستور اصلی.
به نظرم خلاقانه بود و مدلی که توش abbrها تعریف میشن هم زیباست. مخصوصا برای دوستان تازهکار تر که حوصله ادیت کردن zshrc رو ندارن شاید جالب باشه.
https://zsh-abbr.olets.dev/
پلاگین abbr برای zsh کار خلاقانهای که انجام میده اینه که میگه بیا aliasها رو بده به من، حالا هر موقع وارد کردی و خواستی دستور را اجرا کنی، من expandش میکنم به دستور اصلی.
به نظرم خلاقانه بود و مدلی که توش abbrها تعریف میشن هم زیباست. مخصوصا برای دوستان تازهکار تر که حوصله ادیت کردن zshrc رو ندارن شاید جالب باشه.
https://zsh-abbr.olets.dev/
zsh-abbr
The zsh manager for auto-expanding abbreviations
در زمانهی عجیبی از اوپنسورس هستیم. وضعیت جوریه که اپل و مایکروسافت کد اوپن سورس میکنن. (هرچند MS-DOS نسخه ۴ باشه)
https://github.com/apple/corenet
https://github.com/microsoft/MS-DOS
ولی از طرف دیگه، ردیس داره لایسنسش عوض میشه. CentOS رو از دست دادیم و IBM هم HashiCorp رو به زودی میخره.
برای کسایی که در جریان نیستن، HashiCorp شرکتیه که پشت Consul و Vault و Nomad و Terraform و Vagrant هست.
https://newsroom.ibm.com/2024-04-24-IBM-to-Acquire-HashiCorp-Inc-Creating-a-Comprehensive-End-to-End-Hybrid-Cloud-Platform
https://github.com/apple/corenet
https://github.com/microsoft/MS-DOS
ولی از طرف دیگه، ردیس داره لایسنسش عوض میشه. CentOS رو از دست دادیم و IBM هم HashiCorp رو به زودی میخره.
برای کسایی که در جریان نیستن، HashiCorp شرکتیه که پشت Consul و Vault و Nomad و Terraform و Vagrant هست.
https://newsroom.ibm.com/2024-04-24-IBM-to-Acquire-HashiCorp-Inc-Creating-a-Comprehensive-End-to-End-Hybrid-Cloud-Platform
GitHub
GitHub - apple/corenet: CoreNet: A library for training deep neural networks
CoreNet: A library for training deep neural networks - apple/corenet
با توجه به اینکه قبلا کاربر و طرفدار atom بودم تصمیم گرفتم که zed رو امتحان کنم. ادیتور جالبیه. با rust نوشته شده و به نظر سبک و سریع میاد.
داخل خودش امکان مشاهده فایلها و جا به جا شدن بینشون و پشتیبانی از autocomplete داره (بدون کانفیگ و پلاگین خاصی) که خیلی جالبه.
متاسفانه ولی چند تا ایراد عمده داره که باعث میشه فعلا نشه ازش استفاده کرد.
اول اینکه فقط برای macOS در دسترسه. دوم اینکه باگ هم کم نداره مخصوصا از قابلیاتها یپیچیدهش مثل همین autocomplete بخواید استفاده کنید. مثلا با اینکه من gopls رو نصب داشتم و تو یه پروژه ی معتبر گولنگی بودم ولی موتور اتوکامپلیتش قاطی کرد. دیدم ایشوی مرتبطش هم باز هست تو گیتهاب. یا مثلا اگه فایل زیپ رو دستتون بخوره باز کنید باهاش ارورهای عجیب میده که فایل utf-8 نیست. مشکلات دیگه مثل مصرف زیاد حافظه برای فایلهای بزرگ هم داره که همهی تبلیغاتش که با rust نوشته شده و سریع و سبکه رو زیر سوال میبره.
در کل به نظرم ایدههای خوبی رو داره دنبال میکنه و برای کسایی که نمیخوان IDE هر زبون خاص رو نصب کنن و الان مثلا از VSCode استفاده میکنن شاید بعدا که استیبل شد گزینهی خوبی باشه ولی در حال حاضر نه.
راستی فیچرهای خیلی باحالی هم نوید میده مثل اینکه با همکاراتون روی یک فایل کار کنید ولی با توجه به اینکه سیستمعامل قابل استفادهش محدوده من نتونستم خودم تست کنم.
یه لینک که در موردش نوشته و سایت رسمیش هم براتون میذارم اگه خواستید بیشتر بخونید:
https://www.infoq.com/news/2024/02/zed-code-editor-open-sourced/
https://zed.dev/
داخل خودش امکان مشاهده فایلها و جا به جا شدن بینشون و پشتیبانی از autocomplete داره (بدون کانفیگ و پلاگین خاصی) که خیلی جالبه.
متاسفانه ولی چند تا ایراد عمده داره که باعث میشه فعلا نشه ازش استفاده کرد.
اول اینکه فقط برای macOS در دسترسه. دوم اینکه باگ هم کم نداره مخصوصا از قابلیاتها یپیچیدهش مثل همین autocomplete بخواید استفاده کنید. مثلا با اینکه من gopls رو نصب داشتم و تو یه پروژه ی معتبر گولنگی بودم ولی موتور اتوکامپلیتش قاطی کرد. دیدم ایشوی مرتبطش هم باز هست تو گیتهاب. یا مثلا اگه فایل زیپ رو دستتون بخوره باز کنید باهاش ارورهای عجیب میده که فایل utf-8 نیست. مشکلات دیگه مثل مصرف زیاد حافظه برای فایلهای بزرگ هم داره که همهی تبلیغاتش که با rust نوشته شده و سریع و سبکه رو زیر سوال میبره.
در کل به نظرم ایدههای خوبی رو داره دنبال میکنه و برای کسایی که نمیخوان IDE هر زبون خاص رو نصب کنن و الان مثلا از VSCode استفاده میکنن شاید بعدا که استیبل شد گزینهی خوبی باشه ولی در حال حاضر نه.
راستی فیچرهای خیلی باحالی هم نوید میده مثل اینکه با همکاراتون روی یک فایل کار کنید ولی با توجه به اینکه سیستمعامل قابل استفادهش محدوده من نتونستم خودم تست کنم.
یه لینک که در موردش نوشته و سایت رسمیش هم براتون میذارم اگه خواستید بیشتر بخونید:
https://www.infoq.com/news/2024/02/zed-code-editor-open-sourced/
https://zed.dev/
InfoQ
The Creators of the Atom Code Editor Open-Source Zed, Their New Rust-Based High-Performance Editor
Nathan Sobo recently open-sourced Zed, a code editor that focuses on performance, integrates AI capabilities, and supports software teams’ collaboration out of the box. For performance, Zed leverages a Rust code base, multicore- and GPU-optimized code, with…
من میخواستم یه مطلب مشابه همین بنویسم ولی این رو پیدا کردم و فقط توضیحات تکمیلی میدم.
ابزار ollama ربطی به llama3 نداره و میشه باهاش از marketplaceی که داره هر مدل اوپنسورسی رو مثل mistal رو پول کرد و اجرا کرد. رابط خوش دستی هم داره فقط تنها ایرادش اینه که سرورش ما رو تحریم کرده و برا پول کردن باید یه فکری بکنید.
برای فرانتاند هم میشه از چندین روش استفاده کرد. یکیش همین چت خودشه که تو ترمیناله و تو گیف مشاهده میکنید. حتی میشه بهش دستور pipe کرد ولی شاید بهترین تجربه کاربری نباشه.
میتونید هم از frontendهای دیگه استفاده کنید. ollama در اصل در حالت سرور با دستور ollama serve اجرا میشه و بعد میتونید frontendهای مختلف مثل cli خودش یا open-webui رو بهش متصل کنید.
حالا apiی که ارائه میده یه چیزی مختص خودشه، ولی پشتیبانی آزمایشی از api استاندارد open ai هم داره که در نتیجه میشه بهش ابزارهایی که در اصل برا chat gpt توسعه داده شدن رو هم بهش متصل کرد. من مثلا mods رو بهش متصل کردم برا استفاده تو ترمینال.
یه نکته پرفورمنسی هم اینکه اگر کارت گرافیک ندارید احتمالا خیلی پردازندهتون داغ و اذیت بشه و تولید نتیجه کند باشه (مگر اینکه خیلی قوی باشه که بعیده چنین سیستمی) اما شدنیه. اگر هم کارت گرافیک دارید نسخهی مخصوص ollama رو میتونید نصب کنید مثلا من که nvidia بود کارت گرافیکم، از aur پکیج ollama cuda رو نصب کردم و بدون دردسر خاصی کار کرد و لود رو انداخت رو gpu. داکهای خودشون هم برا gpu لینکش رو میگذارم.
https://github.com/ollama/ollama/blob/main/docs/linux.md
https://github.com/ollama/ollama/blob/main/docs/gpu.md
قبلا lm-studio رو معرفی کرده بودم که اون یه gui مرتب داره و میتونید همونجا چت کنید و مدل دانلود کنید و کامله و کار باهاش راحت تره ولی apiش گویا مطابق با open ai نیست. یه مشکل دیگه هم که داره اینه که در ان واحد یه مدل رو میتونه لود کنه و رو اون کار کنه در حالی که ollama اصلا مدل رو لود نمیکنه و وقتی serveش رو اجرا میکنید مموری خیلی کمی مصرف میکنه و بعد به تناسب api callی که دریافت میکنه از مدل استفاده میکنه. (که نمیدونم چرا ولی سریعه و خوبه!)
دو تا تجربه هم که داشتم مینویسم براتون.
اول اینکه لزومی نداره حتما ollama یا هر فرانتاندی به بکاند روی همون سیستم وصل بشه. اگه موقع زدن ollama serve تنظیمات لازم رو انجام بدید از هر سیستمی میشه بهش متصل شد، مثلا میشه مدل رو روی سرور بیارید بالا ولی ollama محلی رو تنظیم کنید که به سرور وصل بشه. من روی سیستمی که gpu و رم مناسبی داشت ران کردم و از لپتاپ بهش متصل شدم.
این ایشو رو ببینید:
https://github.com/ollama/ollama/issues/703
دوم اینکه open-webui حجم زیادی داره که برا یه gui خیلی منطقی نیست. ایمج داکرش حدود یک گیگابایت میشه! ولی امکانات جالبی هم اضافه میکنه مثلا قابلیت اکانتهای مختلف رو داره و اولین اکانت ادمینه و باید sign up بقیه رو تایید کنه. میتونید این رو هم روی سرور بیارید بالا و اکانت بسازید برای آدما و بهشون خدمت llm ارائه بدید. در واقع یه frontend و یه backend خودش داره که backendش به بکاندهای مختلفی از جمله ollama متصل میتونه بشه. در کل میشه گفت که برای استفاده شخصی رو یه سیستم داشتن ollama در کنار open-webui یه مقدار over engineer هست ولی با توجه به رابط کاربری مرتب و کم باگ open-webui به نظرم میشه بهش فکر کرد.
ابزار ollama ربطی به llama3 نداره و میشه باهاش از marketplaceی که داره هر مدل اوپنسورسی رو مثل mistal رو پول کرد و اجرا کرد. رابط خوش دستی هم داره فقط تنها ایرادش اینه که سرورش ما رو تحریم کرده و برا پول کردن باید یه فکری بکنید.
برای فرانتاند هم میشه از چندین روش استفاده کرد. یکیش همین چت خودشه که تو ترمیناله و تو گیف مشاهده میکنید. حتی میشه بهش دستور pipe کرد ولی شاید بهترین تجربه کاربری نباشه.
میتونید هم از frontendهای دیگه استفاده کنید. ollama در اصل در حالت سرور با دستور ollama serve اجرا میشه و بعد میتونید frontendهای مختلف مثل cli خودش یا open-webui رو بهش متصل کنید.
حالا apiی که ارائه میده یه چیزی مختص خودشه، ولی پشتیبانی آزمایشی از api استاندارد open ai هم داره که در نتیجه میشه بهش ابزارهایی که در اصل برا chat gpt توسعه داده شدن رو هم بهش متصل کرد. من مثلا mods رو بهش متصل کردم برا استفاده تو ترمینال.
یه نکته پرفورمنسی هم اینکه اگر کارت گرافیک ندارید احتمالا خیلی پردازندهتون داغ و اذیت بشه و تولید نتیجه کند باشه (مگر اینکه خیلی قوی باشه که بعیده چنین سیستمی) اما شدنیه. اگر هم کارت گرافیک دارید نسخهی مخصوص ollama رو میتونید نصب کنید مثلا من که nvidia بود کارت گرافیکم، از aur پکیج ollama cuda رو نصب کردم و بدون دردسر خاصی کار کرد و لود رو انداخت رو gpu. داکهای خودشون هم برا gpu لینکش رو میگذارم.
https://github.com/ollama/ollama/blob/main/docs/linux.md
https://github.com/ollama/ollama/blob/main/docs/gpu.md
قبلا lm-studio رو معرفی کرده بودم که اون یه gui مرتب داره و میتونید همونجا چت کنید و مدل دانلود کنید و کامله و کار باهاش راحت تره ولی apiش گویا مطابق با open ai نیست. یه مشکل دیگه هم که داره اینه که در ان واحد یه مدل رو میتونه لود کنه و رو اون کار کنه در حالی که ollama اصلا مدل رو لود نمیکنه و وقتی serveش رو اجرا میکنید مموری خیلی کمی مصرف میکنه و بعد به تناسب api callی که دریافت میکنه از مدل استفاده میکنه. (که نمیدونم چرا ولی سریعه و خوبه!)
دو تا تجربه هم که داشتم مینویسم براتون.
اول اینکه لزومی نداره حتما ollama یا هر فرانتاندی به بکاند روی همون سیستم وصل بشه. اگه موقع زدن ollama serve تنظیمات لازم رو انجام بدید از هر سیستمی میشه بهش متصل شد، مثلا میشه مدل رو روی سرور بیارید بالا ولی ollama محلی رو تنظیم کنید که به سرور وصل بشه. من روی سیستمی که gpu و رم مناسبی داشت ران کردم و از لپتاپ بهش متصل شدم.
این ایشو رو ببینید:
https://github.com/ollama/ollama/issues/703
دوم اینکه open-webui حجم زیادی داره که برا یه gui خیلی منطقی نیست. ایمج داکرش حدود یک گیگابایت میشه! ولی امکانات جالبی هم اضافه میکنه مثلا قابلیت اکانتهای مختلف رو داره و اولین اکانت ادمینه و باید sign up بقیه رو تایید کنه. میتونید این رو هم روی سرور بیارید بالا و اکانت بسازید برای آدما و بهشون خدمت llm ارائه بدید. در واقع یه frontend و یه backend خودش داره که backendش به بکاندهای مختلفی از جمله ollama متصل میتونه بشه. در کل میشه گفت که برای استفاده شخصی رو یه سیستم داشتن ollama در کنار open-webui یه مقدار over engineer هست ولی با توجه به رابط کاربری مرتب و کم باگ open-webui به نظرم میشه بهش فکر کرد.
GitHub
ollama/docs/linux.md at main · ollama/ollama
Get up and running with Llama 3.3, DeepSeek-R1, Phi-4, Gemma 3, Mistral Small 3.1 and other large language models. - ollama/ollama
Forwarded from Geek Alerts
This media is not supported in your browser
VIEW IN TELEGRAM
چطور مدلهای اپنسورس مثل llama3 رو اجرا کنیم؟
همینطور که میدونید متا مدتی پیش از خانواده مدل llama3 رونمایی کرد. مدلی که الان نسخه 70bش از بهترین مدل Claude و یکی از نسخههای gpt4 بهتر عمل میکنه. حالا اگه بخوایم نسخه 8bش که مدل سبکی هم هست و حتی میتونید روی یک رزبریپای هم بالا بیاریدش، باید چیکار کنیم؟ (گرافیک قویای نمیخواد و صرفاً نیاز به رم بالای ۸ و یه پردازنده نسبتاً خوب نیاز دارید)
سادهترین روش که تو ویدیو هم دیدیدش برای اجرای یک مدل، استفاده از ollamaست که یه ابزار تحت cliه. اینجوری که از این لینک نسخه مخصوص به سیستمعاملتون رو دانلود میکنید و نصب و بعدش با باز کردن یه پنجره ترمینال و نوشتن
نهایتا بعد از دانلود شدن مدل، میتونید باهاش چت کنید. برای ollama رابطهای گرافیکی زیادی موجوده. مثل anythingllm یا open-webui که میتونید روی سیستمتون اجراشون کنید و سادهتر با مدلها چت کنید.
حالا اگه یک محیط کامل(جدا از ollama) و به صورت گرافیکی میخواید، میتونید از LMStudio استفاده کنید. یه برنامه کامله که بهتون اجازه میده مدلها رو از HuggingFace دانلود کنید و بعد باهاش چت کنید. از مدلهایی که vision دارند هم پشتیبانی میکنه.
Hadi @geekalerts
همینطور که میدونید متا مدتی پیش از خانواده مدل llama3 رونمایی کرد. مدلی که الان نسخه 70bش از بهترین مدل Claude و یکی از نسخههای gpt4 بهتر عمل میکنه. حالا اگه بخوایم نسخه 8bش که مدل سبکی هم هست و حتی میتونید روی یک رزبریپای هم بالا بیاریدش، باید چیکار کنیم؟ (گرافیک قویای نمیخواد و صرفاً نیاز به رم بالای ۸ و یه پردازنده نسبتاً خوب نیاز دارید)
سادهترین روش که تو ویدیو هم دیدیدش برای اجرای یک مدل، استفاده از ollamaست که یه ابزار تحت cliه. اینجوری که از این لینک نسخه مخصوص به سیستمعاملتون رو دانلود میکنید و نصب و بعدش با باز کردن یه پنجره ترمینال و نوشتن
ollama run llama3
نهایتا بعد از دانلود شدن مدل، میتونید باهاش چت کنید. برای ollama رابطهای گرافیکی زیادی موجوده. مثل anythingllm یا open-webui که میتونید روی سیستمتون اجراشون کنید و سادهتر با مدلها چت کنید.
حالا اگه یک محیط کامل(جدا از ollama) و به صورت گرافیکی میخواید، میتونید از LMStudio استفاده کنید. یه برنامه کامله که بهتون اجازه میده مدلها رو از HuggingFace دانلود کنید و بعد باهاش چت کنید. از مدلهایی که vision دارند هم پشتیبانی میکنه.
Hadi @geekalerts
آیا همیشه برنامههای گولنگ static link میشن؟ نه. چه زمانهایی نمیشن؟
این وسط CGO چیه؟
اگه دوست دارید بدونید:
https://mt165.co.uk/blog/static-link-go/
این وسط CGO چیه؟
اگه دوست دارید بدونید:
https://mt165.co.uk/blog/static-link-go/
Matt Turner
Statically Linking Go in 2022 - Matt Turner
How to statically link Go, updated for 2022