<bgdev />free

| |  


All tags 2023 9may ai algorithm alpha amd american api argon2 arm asm asmbb assembler attachment awareness balgaria bay888 bcrypt bender beta bgdev-next bgdev-next.👍 big.data bitchnigga bitcoin bmw boi borg brexit bug bulgaria business c cad chat cloud computer-names console crossorigin deprivation desktop dna dotnet email eupl falling feature forum foundation fp fresh fun game gcc github goats google gpl gpt gpt.3.5 gypsies happiness harvard hash improvement include investment it java javascript js kleta kleta.maqka.balg lambi language learning leftovers legend level levenshtein.dist libx license linkedlist linux m0 ma mcafee mele microsoft minimag minimalism negro net nginx nigga not.a.bug oop paradigm parler patterns perception persuasion pipe play.station politics populi pornhub pow pro programming protonmail python reba rust sci-fi scripting seks seo server shell sleep smartbeauty soft-skills sqlite srabska sse starship sugerface syntax tablet tailwindcss telegram theme thug troll80lvl tutanota typescript uacme ui uk unix untermensch upload uptime usa utilities ux vb via viber virtual.reality vox vps vulnerable war wasm weapons-grade web windows word x86 xbox xss youtube zig ziglang Übermensch БОКЕБЪЛГАРИН БЪ БЪлгария Белезниците Били Били.Белезниците БялДонор Веган Виста Възраждане ГЛУПАК Гана Глиста ЕС Казарма Копейкин Мода.и.овча.мисъ НЕКАДЪРНИК НРБ ПО-ЗЛЕ.И.ОТ.РАБИ Подкасти Разни Румен СИК СКУМ СетенЧук Скум ТИР Туче Украйна Урсула Яначков авангард аз айфонджия алгоритми амбиции анархизъм антиваксъри армения аудио аутисти бази.данни бакъп без без.пръчове безпросвета бенчмарк биготи биомаса бира боклук борисов ботев брадва булшит бъг бъгове бял ваксина вандал век венерика викинги вицове вишу война вървежен гана ганорник гей гейщина германия герои гешев глупак говеда групировка гюбек данъкоплатец двойни.стандарти дедотия демокрация дизайн дисциплина добитък докери долар донори држава дришльо дрон ебане еврогейски.съюз езици експеримент електроника електроника.s2 емиграция ендпойнт енум ерген ергономия жалкар задача затоплизъм защита здраве златен злато игри идеали идиократ идиократи идиокрация идиот избори избори.рабин изкуство икономика имбецили имейл инвестиране инокулация инструмента интервю ипад искам.да.си.реда казах камшикодържач капитализъм карабах караница картечница кино клавиатура ковид19 колайдер колям.кур комари комплексар комунизъм консолидация конспирации космонавтика кофа кофит-19 краставица криптовалути курви кучелюбци лайно лаладжия лаптоп либерастия литература лоши.практики луд лъжеучени лъжец любов майни майтапи малоумници мафия мениджмънт месо местене метавселена метафизика механика мистика мисъл мода мода.овча.мисъл модерация морал мутра мутри наука национализъм не.it негър некадърник некадърници неон нидерландия овча овчи олигофрени организация офтопик парички партия педал педераси пенджури пенсия пишока плюскане победа погромист поезия политика порно посредствен почивка празници прасе превод предалщина програмиране проект проста простотии против.правилата проф пръч пръч.дришльо пръчка психика психични.болести психология пустиняк путин путката путьо рабин рабин.е.шибан.пе работа радост разврат разни разработка расизъм резерват рейтинг реклама рекламен религия рест ризи ропче ропчета русия руски.език рутина самоковска сасипаха секира село селяндур сериали сериозно.програм сетен сеянин симулация скопяване скръм слушалки сортиране софия софтуер софтуни социализъм спектрометър спринтове сране стандарти стил стуйо стюи сушилня сцена съвет съм сън сървър сърничка таб ташаци телевизия тема територията терминология термояд технологии титли традиция тролинг тръмп туба туче тъпак тъпанари тъпня уиндоус украйна умнокрасивци фалит фантастика фашизъм фейк.акаунти физика филми форум форумни.проекти футбол хазарт хамали харабия хардуер хахаха хомофобия хостинг храна хумор цайко цайси целофан цензура цензурра циганин чалга чалгар чекии чернокраки честота чипове чнг чужбина чук шпация щайга юан яката яко ям 🔨 😂 🪓


Лаптоп за Deep Learning и Large Language модели

  

0 1 2 3


  Rabin  Последно редактирано на 10:52 от Rabin, видяно: 194 пъти. #131980
Delegate

Модела се зарежда целия във видео-паметта. Местене ще има при инференс, но но това са мизерни няколко килобайта промпт и респонс. Говорим за свястна карта с 24 и нагоре GB GDDR6X VRAM. Все пак LLM-ите не са видео-игри. Dedicated паметта не се бори за бандуит с други подсистеми - CPU, GPU, ANE pyTorch и Tensorflow са оптимизирани основно за nVidia

Хората правят клъстер от видеокарти, както му каза, нашия ще мачка с лаптоп. Как не са се сетили! Ама и по-тъпи има, фърлят 5 цифрени суми на сенилни кандидат президенти. Путьо поне ще има читав лаптоп, то и на мене предстои да земам. Безнадеждно остаря тоя.

п.с. С един 17 инчов се размъквах по света, обели ми се рамото. Шефчето си носеше ултра notebook, и ултра му завиждахме. Монитор все ще намериш при клиента, не е нужно да го носиш на рамо. Над 15 инча не е лаптоп за менека. Хамалогия е.



  |  Създадено на 12:16, видяно: 166 пъти. #131999
Delegate

Модела се зарежда целия във видео-паметта. Местене ще има при инференс, но но това са мизерни няколко килобайта промпт и респонс. Говорим за свястна карта с 24 и нагоре GB GDDR6X VRAM. Все пак LLM-ите не са видео-игри. Dedicated паметта не се бори за бандуит с други подсистеми - CPU, GPU, ANE pyTorch и Tensorflow са оптимизирани основно за nVidia

Не знам, но все си мислех, че могат да се зареждат параметрите на отделни layers и да се правят частични сметки. Явно инфраструктурата за ML e по-зле отколкото очаквах.

Значи с тази карта с 8GB на практика няма да може да пуска никакви LLMs.



  Delegate  Последно редактирано на 13:39 от Delegate, видяно: 156 пъти. #132006

Да, мисля, че е безполезна до голяма степен. Имам 8 GB и рънвам само разни не чат модели, като AI за транскрипция на глас към текст. Имам и 12 GB, но накрая ако искам нещо по-така, ползвам system mem и CPU, но си трябва яка nVidia Tesla карта, или RTX 6000 generation и то няколко в клъстер. Има различни AI модели, но за да рънваш нещо локално, което да не е само с демонстрационна цел, а да ти върши някаква работа - например да му направиш fine tuning или RAG върху твои данни и да ти отговаря на въпроси свързани с тях без да халюцинира(при бизнеса това е недопустимо) си трябва як хардуер.



  waldorf  Създадено на 13:57, видяно: 146 пъти. #132007
Delegate

Да, мисля, че е безполезна до голяма степен. Имам 8 GB и рънвам само разни не чат модели, като AI за транскрипция на глас към текст. Имам и 12 GB, но накрая ако искам нещо по-така, ползвам system mem и CPU, но си трябва яка nVidia Tesla карта, или RTX 6000 generation и то няколко в клъстер. Има различни AI модели, но за да рънваш нещо локално, което да не е само с демонстрационна цел, а да ти върши някаква работа - например да му направиш fine tuning или RAG върху твои данни и да ти отговаря на въпроси свързани с тях без да халюцинира(при бизнеса това е недопустимо) си трябва як хардуер.

А тоя NVIDIA DIGITS с 64 Гиги ще може ли да търкаля такива модели? Чудя се дали да го взимам него или 5090?



  Delegate  Последно редактирано на 14:20 от Delegate, видяно: 144 пъти. #132010

То има и DIGITS със 128GB, които рънват локално 200B модели, което(засега) е доста добре.

Ето bggpt-то на моя лаптоп с 8GB RAM : Модела е 7B и е отчайващо тъп. Loading checkpoint shards: 100%| 2/2 00:01<00:00, 1.46it/s

15:32:50-224130 INFO Loaded "INSAIT-Institute_BgGPT-7B-Instruct-v0.2" in 13.22 seconds.

15:32:50-228128 INFO LOADER: "Transformers"

15:32:50-231304 INFO TRUNCATION LENGTH: 32768

15:32:50-233459 INFO INSTRUCTION TEMPLATE: "Custom (obtained from model metadata)"

Output generated in 1706.88 seconds (0.01 tokens/s, 11 tokens, context 92, seed 54917785)



  waldorf  Създадено на 14:30, видяно: 137 пъти. #132011

Моя грешка, верно базово си идва със 128 гиги. Не е зле. Излиза май по на сметка от яка машина + гпу.



  Последният акаунт на Единия  Последно редактирано на 14:35 от Последният акаунт на Единия, видяно: 136 пъти. #132012
Delegate

То има и DIGITS със 128GB, които рънват локално 200B модели, което(засега) е доста добре.

Ето bggpt-то на моя лаптоп с 8GB RAM : Модела е 7B и е отчайващо тъп. Loading checkpoint shards: 100%| 2/2 00:01<00:00, 1.46it/s

15:32:50-224130 INFO Loaded "INSAIT-Institute_BgGPT-7B-Instruct-v0.2" in 13.22 seconds.

15:32:50-228128 INFO LOADER: "Transformers"

15:32:50-231304 INFO TRUNCATION LENGTH: 32768

15:32:50-233459 INFO INSTRUCTION TEMPLATE: "Custom (obtained from model metadata)"

Output generated in 1706.88 seconds (0.01 tokens/s, 11 tokens, context 92, seed 54917785)

Аха - а какво мислиш за тая NVIDIA GeForce RTX 4090 (16GB GDDR6)!?

Може на този да се спра - ASUS ROG Strix SCAR 17 X3D G733PYV-LL046W



  Rabin  Последно редактирано на 14:39 от Rabin, видяно: 132 пъти. #132014

Май месец излизат за 3000$, DIGITS със 128 гиги RAM.

Земи си лаптоп за да си цъкаш CS, що не?



  Последният акаунт на Единия  Създадено на 14:43, видяно: 122 пъти. #132015
Rabin

Май месец излизат за 3000$, DIGITS със 128 гиги RAM.

Земи си лаптоп за да си цъкаш CS, що не?

Дай некъв линк - да видим за какво бълнуваш!



  waldorf  Създадено на 14:50, видяно: 114 пъти. #132016

https://www.nvidia.com/en-us/project-digits/



  waldorf  Създадено на 14:53, видяно: 112 пъти. #132017

DIGITS не е лапатоп ама определено може да си го носиш в джоба примерно rofl



  Последният акаунт на Единия  Създадено на 14:55, видяно: 108 пъти. #132018
waldorf

DIGITS не е лапатоп ама определено може да си го носиш в джоба примерно rofl

Хъ, за пръв път Рабиняка да каже нещо, дето да има смисъл. Чей го разгледам туй DIGITS - па мое верно да си земем лаптопа дет първоначално го избирах и дет ще върши работа за кенефни проекти, а за AI по-нататика да си зема туй. :-)



  Rabin  Създадено на 14:58, видяно: 107 пъти. #132019
Последният акаунт на Единия

Хъ, за пръв път Рабиняка да каже нещо, дето да има смисъл.

За разлика от тебе, никога няма смисъл де сереш у сички теми и форуми.



  Последният акаунт на Единия  Създадено на 15:00, видяно: 104 пъти. #132021

Лол, ся кат се позачетох за DIGITS се депресирах.

Кви неща правят хората, а ние за какво си ползваме щайгите - за кенефни проекти с 20 контейнера и 5 дизайн патерна и яко SCRUM с code review-та и политики за сране. :'-( Плаче ми са!



  Последният акаунт на Единия  Последно редактирано на 15:05 от Последният акаунт на Единия, видяно: 99 пъти. #132024

Ся чета:

NVIDIA's Project DIGITS is a personal AI supercomputer designed to bring high-performance AI capabilities directly to individual developers, researchers, and students. NVIDIA

Key Features:

GB10 Grace Blackwell Superchip: At the heart of Project DIGITS is the GB10 Superchip, a system-on-a-chip (SoC) that combines an NVIDIA Blackwell GPU with the latest CUDA cores and fifth-generation Tensor Cores. This is connected via NVLink-C2C to a high-performance NVIDIA Grace CPU, featuring 20 power-efficient Arm-based cores. This architecture delivers up to 1 petaflop of AI performance at FP4 precision. NVIDIA NEWSROOM

Memory and Storage: The system includes 128GB of unified, coherent memory and offers up to 4TB of NVMe storage, enabling the handling of large AI models and datasets efficiently. NVIDIA NEWSROOM

Scalability: For more demanding applications, two Project DIGITS systems can be interconnected using NVIDIA ConnectX networking to support models with up to 405 billion parameters. NVIDIA NEWSROOM

Operating System and Software Compatibility:

Operating System: Project DIGITS runs on a Linux-based NVIDIA DGX OS, providing a stable and optimized environment for AI development. NVIDIA NEWSROOM

Software Stack: Users have access to NVIDIA's extensive AI software library, including software development kits, orchestration tools, frameworks, and models available through the NVIDIA NGC catalog and the NVIDIA Developer portal. The system supports popular frameworks such as PyTorch, Python, and Jupyter notebooks, facilitating a seamless development experience.



  Последният акаунт на Единия  Създадено на 15:07, видяно: 96 пъти. #132025

А ве знаеш ли кво РЪБинка - нема ти се връзвам на тъпотиите. Ти кат закълвеш нещо е ясно, че на лайно чини. Ти ме открехна за проф. Иво Христов.

Да вервам в Project DIGITS е кат да вервам в Tesla и че ще кацнем на Марс. Яко маркетинг, ама резултат - КУРЕЦ...

Ще послушам Delegate и ще си зема лаптоп с повечко VRAM, ама "научната фантастика" ще я оставя за тебе.

Утре ще земеш да ми препоръчаш да си набия парите и у некой квантов компютър - КОЗОЕБ! >:-(



  |  Създадено на 15:19, видяно: 92 пъти. #132026
Delegate

То има и DIGITS със 128GB, които рънват локално 200B модели, което(засега) е доста добре.

Ето bggpt-то на моя лаптоп с 8GB RAM : Модела е 7B и е отчайващо тъп. Loading checkpoint shards: 100%| 2/2 00:01<00:00, 1.46it/s

15:32:50-224130 INFO Loaded "INSAIT-Institute_BgGPT-7B-Instruct-v0.2" in 13.22 seconds.

15:32:50-228128 INFO LOADER: "Transformers"

15:32:50-231304 INFO TRUNCATION LENGTH: 32768

15:32:50-233459 INFO INSTRUCTION TEMPLATE: "Custom (obtained from model metadata)"

Output generated in 1706.88 seconds (0.01 tokens/s, 11 tokens, context 92, seed 54917785)

Това quantized модел ли е?

Иначе мисля че за съжаление на Мак хейтърите в този момент е ясно кой лаптоп е най-добър за LLM.



  Rabin  Създадено на 15:23, видяно: 85 пъти. #132028
Последният акаунт на Единия

Утре ще земеш да ми препоръчаш да си набия парите и у некой квантов компютър - КОЗОЕБ! >:-(

Макяти в устата, такова не съм казвал!



  Delegate  Последно редактирано на 20:39 от Delegate, видяно: 57 пъти. #132051
|

Това quantized модел ли е?

Иначе мисля че за съжаление на Мак хейтърите в този момент е ясно кой лаптоп е най-добър за LLM.

Не е, quantized е 27B модела и 7b GGUF, който не съм пробвал. За 27B не ми стига видео RAM Пуснах го тоя малкия 7B на nVidia с RTX 3060 с 12 Gb VRAM и даде 3 tokens/sec, което е напълно приемливо поне за мен.



  soidere  Създадено на 22:16, видяно: 25 пъти. #132052

Аз локално ползвам ollama модели защото се визуализарат много добре през open-webui https://github.com/open-webui/open-webui. Статистиката за токените е директно в отговора, примерно за олама bggpt от https://ollama.com/todorov/bggpt:

https://i.postimg.cc/zfRTDRqY/Screenshot-2025-01-17-at-10-12-34-PM.png

0 1 2 3


Лаптоп за Deep Learning и Large Language модели

  



AsmBB v3.0 (check-in: 7544654b24928b93); SQLite v3.47.0 (check-in: 03a9703e27c44437);
©2016..2024 John Found; Licensed under EUPL; Powered by Assembly language Created with Fresh IDE