<bgdev />free

| |  


All tags 2023 9may ai algorithm alpha amd american api argon2 arm asm asmbb assembler attachment awareness balgaria bay888 bcrypt bender beta bgdev-next bgdev-next.👍 big.data bitchnigga bitcoin bmw boi borg brexit bug bulgaria business c cad chat cloud code computer-names console crossorigin deprivation desktop dna dotnet email eupl falling feature food for forum foundation fp fresh fun game gcc github goats google gpl gpt gpt.3.5 gypsies happiness harvard hash improvement include investment it java javascript js kleta kleta.maqka.balg lambi language learning leftovers legend level levenshtein.dist libx license linkedlist linux m0 ma mcafee mele microsoft minimag minimalism negro net nginx nigga not.a.bug oop paradigm parler patterns perception persuasion pipe play.station politics populi pornhub pow pro programming protonmail python reba rust sci-fi scripting seks seo server shell sleep smartbeauty soft-skills sqlite srabska sse starship sugerface syntax tablet tailwindcss telegram theme thug troll80lvl tutanota typescript uacme ui uk unix untermensch upload uptime usa utilities ux vb via viber virtual.reality vox vps vulnerable war wasm weapons-grade web will windows word x86 xbox xss youtube zig ziglang Übermensch БОКЕБЪЛГАРИН БЪ БЪлгария Белезниците Били Били.Белезниците БялДонор Веган Виста Възраждане ГЛУПАК Гана Глиста ЕС Казарма Копейкин Мода.и.овча.мисъ НЕКАДЪРНИК НРБ ПО-ЗЛЕ.И.ОТ.РАБИ Подкасти Разни Румен СИК СКУМ СетенЧук Скум ТИР Туче Украйна Урсула Яначков авангард аз айфонджия алгоритми амбиции анархизъм антиваксъри армения аудио аутисти бази.данни бакъп без без.пръчове безпросвета бенчмарк биготи биомаса бира боклук борисов ботев брадва булшит бъг бъгове бял ваксина вандал век венерика викинги вицове вишу война вървежен гана ганорник гей гейщина германия герои гешев глупак говеда групировка гюбек данъкоплатец двойни.стандарти дедотия демокрация дизайн дисциплина добитък докери долар донори држава дришльо дрон ебане еврогейски.съюз евтини.принтери езици експеримент електроника електроника.s2 емиграция ендпойнт енум ерген ергономия жалкар задача затоплизъм защита здраве златен злато игри идеали идиократ идиократи идиокрация идиот избори избори.рабин изкуство икономика имбецили имейл инвестиране инокулация инструмента интервю ипад искам.да.си.реда казах камшикодържач капитализъм карабах караница картечница кино клавиатура ковид19 колайдер колям.кур комари комплексар комунизъм консолидация конспирации космонавтика кофа кофит-19 краставица криптовалути курви курс кучелюбци лайно лаладжия лаптоп либерастия литература лоши.практики луд лъжеучени лъжец любов майни майтапи малоумници мафия мениджмънт месо местене метавселена метафизика механика мистика мисъл мода мода.овча.мисъл модерация морал мутра мутри наука национализъм не.it негър некадърник некадърници неон нидерландия овча овчи олигофрени организация офтопик парички партия педал педераси пенджури пенсия пишока плюскане победа погромист поезия политика порно посредствен почивка празници прасе превод предалщина програмиране проект проста простотии против.правилата проф пръч пръч.дришльо пръчка психика психични.болести психология пустиняк путин путката путьо рабин рабин.е.шибан.пе работа радост разврат разни разработка расизъм резерват рейтинг реклама рекламен религия рест ризи ропче ропчета русия руски.език рутина самоковска сасипаха секира село селяндур сериали сериозно.програм сетен сеянин симулация скопяване скръм слушалки сортиране софия софтуер софтуни социализъм спектрометър спринтове сране стандарти стил стуйо стюи сушилня сцена съвет съм сън сървър сърничка таб ташаци телевизия тема територията терминология термояд технологии титли традиция тролинг тръмп туба туче тъпак тъпанари тъпня уиндоус украйна умнокрасивци фалит фантастика фашизъм фейк.акаунти физика филми форум форумни.проекти футбол хазарт хамали харабия хардуер хахаха хомофобия хостинг храна хумор цайко цайси целофан цензура цензурра циганин чалга чалгар чекии чернокраки честота чипове чнг чужбина чужденци чук шпация щайга юан яката яко ям 🔨 😂 🪓


Лаптоп за Deep Learning и Large Language модели

  

0 1 2 3 4 ...6 7 8 9 10 ...15 16 17 18 19 20 21 22


  Rabin  Създадено на 11.02.2025, видяно: 216 пъти. #134831
waldorf

Моя линукс е слабичък за ИИ ... като го купувах избързах и вместо яка машина за ИИ какъвто ми беше плана се прибрах в нас с геймърска. Човек си плаща за грешките. 2к евра (с ДДС ама си го дръпнах та реално е 1600) за 16 ядрен 7950Х и 128 гиги рамец. Сигурно ще успее да изтъркаля 70В модела ама дотам. Чудя се дали да дам още 3К за 5090 ... или направо да скачам на двупроцесрна работна станция със 768 гиги рам на която да може да се търкаля големия модел. Горе долу цената и беше колкото на Гената на новия лапатоп - 6к евра.

Да беше погледнал линка, който сам пусна, и който е 3 мнения нагоре, под носа ти.

Ясно е, че си геймър некадърник.



  Delegate  Създадено на 11.02.2025, видяно: 211 пъти. #134832

@Ranim

Едит: видях едита. Ще го изгледам пак и евентуално ще пиша. Ако черпиш по бира мога още много неща (и код) да споделя, особено за обучването на модели

@waldorf

Видеокартите наистина са бързи, но трябва да можеш да зредиш модела във VRAM-а им, което за големи модели е доста скъпо удоволствие. RTX 5090 има 32 GB VRAМ, което те ограничава до 30Б/27B моделите, които реално не са интересни и можеш да ги рънваш и в оперативната памет с по-ниска скорост.



  waldorf  Създадено на 11.02.2025, видяно: 203 пъти. #134833
Rabin

Да беше погледнал линка, който сам пусна, и който е 3 мнения нагоре, под носа ти.

оф, че си смотан ... тоя линк излезе сега, машината я купих преди две години. И все няма време за ИИ, щот и аз не знам щот ... одъртях вече и все повече си гледам рахатлъка вместо да ръчкам занаята.



  waldorf  Създадено на 11.02.2025, видяно: 193 пъти. #134834
Delegate

Видеокартите наистина са бързи, но трябва да можеш да зредиш модела във VRAM-а им, което за големи модели е доста скъпо удоволствие. RTX 5090 има 32 GB VRAМ, което те ограничава до 30Б/27B моделите, които реално не са интересни и можеш да ги рънваш и в оперативната памет с по-ниска скорост.

Точно затова се колебая между:

1) 5090 на тази машина за 3к

2) Нова машина със 768 гиги рам за 6к

3) Нов макбук про натопорчен на мах - той излиза май към 7к

Всяко си има предимства а да ги взема и трите са излишни пари. Не, че не мога да хвърля 15к евро - надявам се, че ще се избият бързо ако превключа в посока ИИ до пенсия. Особено емебедед ИИ - да търкалям на някой джетсън модели, че да си говориш в къщи с крушките на тавана.



  Rabin  Създадено на 11.02.2025, видяно: 187 пъти. #134835
Delegate

@Ranim

Едит: видях едита. Ще го изгледам пак и евентуално ще пиша. Ако черпиш по бира мога още много неща (и код) да споделя, особено за обучването на модели

Черпя бе човек, дай крипто портфейл, не ми свиди! Ако усетя, че не си като останалите инокуланти - ще черпя и на живо. Правило номер едно е да не знаа лявата ръка, ко праи дясната. В Писанието е писано.

Урсулопитек слоновъд

оф, че си смотан ... тоя линк излезе сега, машината я купих преди две години. И все няма време за ИИ, щот и аз не знам щот ... одъртях вече и все повече си гледам рахатлъка вместо да ръчкам занаята.

То ти личи от снимките.



  Delegate  Последно редактирано на 11.02.2025 от Delegate, видяно: 181 пъти. #134836

@валдорф Ако кажеш и тази машина със 768 гъби RAM с какви процесори идва, може картинката малко да се изясни. Все пак има и значение къде ще я разположиш и каква е. Ако е някой фучащ сървър, дето трябва да е в климатизирано помещение и вдига шум като излитащ самолет(особено при старт). Другите параметри вече ги каза - 128 GB РАМ и Ryzen 9 - 16C 7950X + RTX 5090 евентуално.

Всички тия работи ги разглеждаме в хипотезата, че ще се ползват и са инвестиция за ИИ( след 4 месеца може да и да са "obsolete")



  waldorf  Създадено на 11.02.2025, видяно: 161 пъти. #134840

Те тази машина от този линк - https://bgdev-free.asm32.info/laptop-za-deep-learning-i-large-language-modeli.8441/10#133228

https://nitter.poast.org/carrigmat/status/1884244369907278106

Complete hardware + software setup for running Deepseek-R1 locally. The actual model, no distillations, and Q8 quantization for full quality. Total cost, $6,000. All download and part links below:

Motherboard: Gigabyte MZ73-LM0 or MZ73-LM1. We want 2 EPYC sockets to get a massive 24 channels of DDR5 RAM to max out that memory size and bandwidth.

CPU: 2x any AMD EPYC 9004 or 9005 CPU. LLM generation is bottlenecked by memory bandwidth, so you don't need a top-end one.

RAM: This is the big one. We are going to need 768GB (to fit the model) across 24 RAM channels (to get the bandwidth to run it fast enough). That means 24 x 32GB DDR5-RDIMM modules.

Since a lot of people are asking, the generation speed on this build is 6 to 8 tokens per second, depending on the specific CPU and RAM speed you get, or slightly less if you have a long chat history.

Това си е класическа работна станция наточена като хората за ИИ - само с процесори.



  Delegate  Последно редактирано на 11.02.2025 от Delegate, видяно: 153 пъти. #134845

Зависи колко големи модели ще рънваш и каква скорост те устройва за нуждите ти.

Ако ще си говориш с ламБите, няма да ги чакаш >5 минути да мъцнат, я. Най-бързия инференс ще получиш, ако ръгнеш 5090 при сегашния ти Райзън 9.

Най-голям модел ще можеш да ръннеш с работната станция. Епиците са яки кучета, но не могат да се мерят с паралелизма на видеокартите, които еволюират десетки години за това.

Мака е най-отдолу - хем не може да рънва супер големи модели, хем R9+5090 ще го бие на малките.



  |  Създадено на 11.02.2025, видяно: 150 пъти. #134846

Колко добре работи fine-tuning на quantized (да кажем 4-bit) модели?

И, изобщо има ли смисъл да се пускат големите модели с толкова нисък quantization?



  Delegate  Последно редактирано на 11.02.2025 от Delegate, видяно: 146 пъти. #134847

Ами, това са два отделни въпроса. Ами, използват се адаптори и техники PEFT, като LoRa. Някои nVidia карти могат и без адаптори да обучаат директно 4 bit квантувани модели.

За второто - ами аз лично не мога да преценя колко и дали е деградирало качеството на аутпута. Трябват си май тестове, иначе е субективно и понеже е недетерминистично, веднъж добре, после се осира

Все пак си мисля, че добавената производителност(която може да се измери доста точно) е повече от загубената точност/качество на аутпута. Демек, има келепир, ако качеството не е с топ приоритет.



  waldorf  Създадено на 11.02.2025, видяно: 137 пъти. #134848
Delegate

Най-бързия инференс ще получиш, ако ръгнеш 5090 при сегашния ти Райзън 9.

Най-голям модел ще можеш да ръннеш с работната станция. Епиците са яки кучета, но не могат да се мерят с паралелизма на видеокартите, които еволюират десетки години за това.

Мака е най-отдолу - хем не може да рънва супер големи модели, хем R9+5090 ще го бие на малките.

Те това ми трябваше.

1) Мака хем е най голяма инвестиция, хем най малко върши (въпреки, че паметта му е бърза, адски бърза ... ама макс 192 гиги ако не бъркам т.е. по добре да си взема един макбук еър колкото да го разнасям и да си компилирам на него - той и той е 2+к

2) Да бегам посока епик със много рамец ... няма лошо ... а ако му добавя нвидия? Има ли смисъл от няколко гпу-та на една и съща машина?

3) Сегашната ми машина е греда. Ще трябва да я разкарвам ... или да си я ползвам за кодене/пуцане ... бих я бях харизал на Рабиняка ама като го е страх да си даде адреса, имената и ЕГН-то няма как да му я пратя и няма да го огрее. А съм и избил парите още като я взех по по предния ми проект. Ама си бачка. С вградено видео.



  waldorf  Създадено на 11.02.2025, видяно: 133 пъти. #134849

И при това положение се чудя какъв ли смисъл има от нвидия дигитс?! 3к



  Delegate  Създадено на 11.02.2025, видяно: 132 пъти. #134850
waldorf

2) Да бегам посока епик със много рамец ... няма лошо ... а ако му добавя нвидия? Има ли смисъл от няколко гпу-та на една и съща машина?

3) Сегашната ми машина е греда. Ще трябва да я разкарвам ... или да си я ползвам за кодене/пуцане ... бих я бях харизал на Рабиняка ама като го е страх да си даде адреса, имената и ЕГН-то няма как да му я пратя и няма да го огрее. А съм и избил парите още като я взех по по предния ми проект. Ама си бачка. С вградено видео.

Има смисъл от много карти, да. Софтуерчетата за инференс много добре се оправят с мулти-карти. Даже AMD картите(не CUDA) се поддържат (определени модели) с ускорение.

Дай ми я на мене ! От София съм( оф дано не мрази софиянци..май беше от филибето)



  waldorf  Създадено на 11.02.2025, видяно: 128 пъти. #134851
Delegate

Дай ми я на мене ! От София съм( оф дано не мрази софиянци..май беше от филибето)

В Ню Стамбул е ... т.е. Брюксел ... сори



  |  Създадено на 11.02.2025, видяно: 110 пъти. #134859
waldorf

И при това положение се чудя какъв ли смисъл има от нвидия дигитс?! 3к

От Nvidia Digits определено има смисъл.

Първо, защото не е задължително да използваш най-големите модели. Не съм гледал цени, но се съмнявам, че може да намериш дискретна GPU карта с 128 GB памет за $3к.

Второ, защото може да използваш няколко (поне две) машини вързани заедно. Не знам дали ще позволят повече от две, но засега са обещали две.

И, накрая, все пак зависи за какво реално ще използваш ИИ. На никаква (една) машина няма да можеш да пускаш големите модели без да са quantized. Сигурен съм, че всички провайдъри използват някакъв вариант на FSDP за да пускат големите модели на много, сравнително слаби, машини.



  BIGBUGEX  Създадено на 12.02.2025, видяно: 84 пъти. #134869

Пичуи, какво ще кажете да си направим разпределена мрежа за изчисления от десктоп компютри за ИИ? С повечко памет, нещо като платформата BOINC. Всеки ако си вземе по един допълнителен 16 ядрен десктоп общата изчислителна мощ ще е доста добра. И там да се експериментира.

Освен това съм взел домейна system-poetry.eu. Можем да облечем финансовата част в, например "Системна Поезия АД". Като капитала ще отиде за компютрите и ще се наредим на хранилка по някоя европейска програма. И кода който напишем ще е капитал. По някое време може да се листнем на фондовата борса, апропо.

Освен това имам разни идеи. Примерно модела Transformers да се тества на принципа на булева алгебра базиран директно на двоична логика.



  waldorf  Създадено на 12.02.2025, видяно: 63 пъти. #134889
BIGBUGEX

Пичуи, какво ще кажете да си направим разпределена мрежа за изчисления от десктоп компютри за ИИ? С повечко памет, нещо като платформата BOINC. Всеки ако си вземе по един допълнителен 16 ядрен десктоп общата изчислителна мощ ще е доста добра. И там да се експериментира.

Освен това съм взел домейна system-poetry.eu. Можем да облечем финансовата част в, например "Системна Поезия АД". Като капитала ще отиде за компютрите и ще се наредим на хранилка по някоя европейска програма. И кода който напишем ще е капитал. По някое време може да се листнем на фондовата борса, апропо.

Освен това имам разни идеи. Примерно модела Transformers да се тества на принципа на булева алгебра базиран директно на двоична логика.

Ако оставим на страна бизнес частта, от техническа гледна точка какво ще трябва за такава разпределена система? Много ядра, много памет, много ГПУ е ясно. По скоро ми е интересно каква скорост на връзката ще има, че да си заслужава и да не се окаже, че повече време се губи в претакане и синхронизиране на данните по мрежата отколкото за самите сметки. Моделите подлежат ли на клъстериране където на слаби машини да се правят само част от сметките и после да се съшива всичко на едно място? Щото ако е така големите батковци няма да хвърлят милярди на нвидия за ГПУ-та а ще си преизползват дейта центровете в които инвестираха до оня ден и сега се чудят какво да ги правят.



  BIGBUGEX  Създадено на 12.02.2025, видяно: 45 пъти. #134946
waldorf

Ако оставим на страна бизнес частта, от техническа гледна точка какво ще трябва за такава разпределена система? Много ядра, много памет, много ГПУ е ясно. По скоро ми е интересно каква скорост на връзката ще има, че да си заслужава и да не се окаже, че повече време се губи в претакане и синхронизиране на данните по мрежата отколкото за самите сметки. Моделите подлежат ли на клъстериране където на слаби машини да се правят само част от сметките и после да се съшива всичко на едно място? Щото ако е така големите батковци няма да хвърлят милярди на нвидия за ГПУ-та а ще си преизползват дейта центровете в които инвестираха до оня ден и сега се чудят какво да ги правят.

Предполагам само, но при достатъчно бърз ссд интерфейс може да се използва много малко памет. Разпределена система е удобна повече за обучение. Delegate да каже дали ще стане с десктоп компютри ако се пипне софтуера. По принцип го пуснах това предложение да предизвика дискусия и да цъфнат проблемите на този подход. Но за да се избегнат фучащите сървъри трябва да се пипне софтуера.



  Rabin  Създадено на 12.02.2025, видяно: 32 пъти. #134948
BIGBUGEX

Предполагам само, но при достатъчно бърз ссд интерфейс може да се използва много малко памет. Разпределена система е удобна повече за обучение. Delegate да каже дали ще стане с десктоп компютри ако се пипне софтуера. По принцип го пуснах това предложение да предизвика дискусия и да цъфнат проблемите на този подход. Но за да се избегнат фучащите сървъри трябва да се пипне софтуера.

Нали на 7 МакМини-та, пуснаха големия ДеепСеек?



  |  Създадено на 12.02.2025, видяно: 29 пъти. #134949
BIGBUGEX

Предполагам само, но при достатъчно бърз ссд интерфейс може да се използва много малко памет. Разпределена система е удобна повече за обучение. Delegate да каже дали ще стане с десктоп компютри ако се пипне софтуера. По принцип го пуснах това предложение да предизвика дискусия и да цъфнат проблемите на този подход. Но за да се избегнат фучащите сървъри трябва да се пипне софтуера.

Не мисля, че става с разпределена система, свързана през Интернет. За обучение почти всички тези дни използват някакъв вид sharding (споменах FSDP, но има и други предполагам), но са свързани с бърза мрежа, поне 100 гигабита/сек, но най-често 400 гигабита/сек.

Ето ти статията от Мета за FSDP:

PyTorch FSDP: Experiences on Scaling Fully Sharded Data Parallel

DeepSeek също използват sharding и твърдят че при тяхната (бърза) мрежа сметките и комуникацията напълно се припокриват. Ето и тяхната статия:

DeepSeek-V3 Technical Report

Та, няма да стане каквото искаш. :)


0 1 2 3 4 ...6 7 8 9 10 ...15 16 17 18 19 20 21 22


Лаптоп за Deep Learning и Large Language модели

  



AsmBB v3.0 (check-in: 7544654b24928b93); SQLite v3.47.0 (check-in: 03a9703e27c44437);
©2016..2024 John Found; Licensed under EUPL; Powered by Assembly language Created with Fresh IDE