<bgdev />free

Вход Регистрация

Лаптоп за Deep Learning и Large Language модели
0

0 1 2 3 4 ...33 34 35 36 37 ...67 68 69 70 71

#163512 (ツ) |
Последно редактирано на 08.02.2026 от |, видяно: 120 пъти.
waldorf

Ами те са матрици щото сме ги вкарали в матрици. Но оригиналната концепция е с неврониrofl Така де, да преоткрием природата ...

То не знам някой дали е смятал дори и най сложните модели на мозъка на какво животно отговарят?

Сигурен съм, че някой ги е смятал. Имаше някаква фирма дето правеше модели на истински неврони базирани на невронни мрежи, но не си спомням името ѝ.

Иначе никой не иска да не използва матрици, ето Интел се провалиха с Loihi.

#163515 (ツ) waldorf
Създадено на 08.02.2026 , видяно: 111 пъти.
|

Сигурен съм, че някой ги е смятал. Имаше някаква фирма дето правеше модели на истински неврони базирани на невронни мрежи, но не си спомням името ѝ.

Иначе никой не иска да не използва матрици, ето Интел се провалиха с Loihi.

Те де, работи се по въпроса. Нали си спомняш преди пробива при LLM колко време се пъплеше едва едва и все нещо не ставаше като хората и после изведнъж ХОП и всички взе да си отива по местата. Предполагам, че така ще стане и при хардуера - все някой ще го осени гениална идея как да направи всичко по добре и всички ще ахнат как не са се сетили по рано. Залагам на аналоговщината. Шесто чувство. Иска най малко на брой транзистори и би работила за елементарни математически операции. Но аз самия съм достатъчно бос там, че да имам претенции, че съм наясно кое как и дали може да се направи.

#163520 (ツ) klapaucius
Създадено на 09.02.2026 , видяно: 82 пъти.
|

Ами мозъците ни не умножават матрици. Затова и казвам, че докато не се променят моделите (т.е. софтуера), няма да има особен прогрес. Иначе Интел и IBM правиха по едно време разни neuromorphic chips, но май нищо не се получи от тях. Дори им забравих имената вече.

Точно затова съм съгласен с професора, че (поне на този етап) такъв PIM е подходящ предимно за академици.

Същото мисля и за всякакви опити да се наподоби 1:1 работата на естествената невронна мрежа.

Пробив в моделите се чака от откриването на перцептрона преди 80 години, а до преди 10-на години само бяха с доста ограничено приложение.

#163536 (ツ) |
Създадено на 09.02.2026 , видяно: 61 пъти.

Стандартните процесори ще си ги има и в бъдеще. Ето дори Нвидия има доста бързи процесори във ВераРубин.

Основния проблем на ML приложенията е, че различните стъпки изискват различни неща. Някои са memory bound, други са compute bound, пък и memory capacity има значение за качеството на резултата. Няма да навлизам в повече подробности, че козоеба слухти. Който знае, знае. :)

Аз лично съм си харесал една архитектура, но не знам дали ще успее. Достатъчно различна е от CPU и GPGPU за да е интересна.

0 1 2 3 4 ...33 34 35 36 37 ...67 68 69 70 71

Лаптоп за Deep Learning и Large Language модели
0

AsmBB v3.0 (check-in: 7544654b24928b93); SQLite v3.47.0 (check-in: 03a9703e27c44437);
©2016..2024 John Found; Licensed under EUPL. Powered by Assembly language Created with Fresh IDE