Сигурен съм, че някой ги е смятал. Имаше някаква фирма дето правеше модели на истински неврони базирани на невронни мрежи, но не си спомням името ѝ.
Иначе никой не иска да не използва матрици, ето Интел се провалиха с Loihi.
0 1 2 3 4 ...33 34 35 36 37 ...67 68 69 70 71
Сигурен съм, че някой ги е смятал. Имаше някаква фирма дето правеше модели на истински неврони базирани на невронни мрежи, но не си спомням името ѝ.
Иначе никой не иска да не използва матрици, ето Интел се провалиха с Loihi.
Те де, работи се по въпроса. Нали си спомняш преди пробива при LLM колко време се пъплеше едва едва и все нещо не ставаше като хората и после изведнъж ХОП и всички взе да си отива по местата. Предполагам, че така ще стане и при хардуера - все някой ще го осени гениална идея как да направи всичко по добре и всички ще ахнат как не са се сетили по рано. Залагам на аналоговщината. Шесто чувство. Иска най малко на брой транзистори и би работила за елементарни математически операции. Но аз самия съм достатъчно бос там, че да имам претенции, че съм наясно кое как и дали може да се направи.
Точно затова съм съгласен с професора, че (поне на този етап) такъв PIM е подходящ предимно за академици.
Същото мисля и за всякакви опити да се наподоби 1:1 работата на естествената невронна мрежа.
Пробив в моделите се чака от откриването на перцептрона преди 80 години, а до преди 10-на години само бяха с доста ограничено приложение.
Стандартните процесори ще си ги има и в бъдеще. Ето дори Нвидия има доста бързи процесори във ВераРубин.
Основния проблем на ML приложенията е, че различните стъпки изискват различни неща. Някои са memory bound, други са compute bound, пък и memory capacity има значение за качеството на резултата. Няма да навлизам в повече подробности, че козоеба слухти. Който знае, знае. :)
Аз лично съм си харесал една архитектура, но не знам дали ще успее. Достатъчно различна е от CPU и GPGPU за да е интересна.
0 1 2 3 4 ...33 34 35 36 37 ...67 68 69 70 71