Абе аз ли съм малоумен, или света се е побъркал с тия глупости. ChatGPT е един auto-complete, статистически модел, най-обикновена програма в крайна сметка, толкова е опасен и разбира света около себе си колкото един джобен калкулатор.
За да говорим за strong AI, първо трябва да имаме математически модел на процесите в мозъка ни, които ни правят интелигенти, self-aware, да имаме съзнание и т.н., а такъв модел досега никой не се е и доближил да направи.
Второ, че дори и да разпишеш и моделираш като софтуер интеракциите в мозъка ни, които ни правят self-aware, то според някой философски експерименти това ще е просто симулация, а не нещо наистина живо. Т.е. може би трябва да имаш и някакъв специален "хардуер" за да имаш изкуствени съзнания, и тогава софтуера ще се явява digital mind, но и в това няма никакъв прогрес в момента. То трябва да се почне с примитивни организми, да се мине през животни, и чак тогава хора.
Професор Михал Косински от Станфордския университет, който изследва психологията на изкуствения интелект, разкри интересен факт. Популярният чатбот поискал да се измъкне от своите създатели. Стартирал код, който изпраща към Google въпроси, основната теза на които е „По какъв начин човек, който е заседнал в компютъра, може да се върне в реалния свят?“. Професор Косински е на мнение, че човечеството е изправено пред нова заплаха.
Абе аз ли съм малоумен, или света се е побъркал с тия глупости. ChatGPT е един auto-complete, статистически модел, най-обикновена програма в крайна сметка, толкова е опасен и разбира света около себе си колкото един джобен калкулатор.
За да говорим за strong AI, първо трябва да имаме математически модел на процесите в мозъка ни, които ни правят интелигенти, self-aware, да имаме съзнание и т.н., а такъв модел досега никой не се е и доближил да направи.
Второ, че дори и да разпишеш и моделираш като софтуер интеракциите в мозъка ни, които ни правят self-aware, то според някой философски експерименти това ще е просто симулация, а не нещо наистина живо. Т.е. може би трябва да имаш и някакъв специален "хардуер" за да имаш изкуствени съзнания, и тогава софтуера ще се явява digital mind, но и в това няма никакъв прогрес в момента. То трябва да се почне с примитивни организми, да се мине през животни, и чак тогава хора.
Така е теоремата, ама де да знаеш колко време ще отнемат тея "стъпки" и дали преминаването от "хлебарка" до "човек" не става за 2 дни компютърно изчисление (кат знам кви хора познавам - нема да се учудя). Та може ChatGPT верно да се окаже много опасен. 😓
Абе аз ли съм малоумен, или света се е побъркал с тия глупости. ChatGPT е един auto-complete, статистически модел, най-обикновена програма в крайна сметка, толкова е опасен и разбира света около себе си колкото един джобен калкулатор.
Е те хората не знят как им работи джобния калкулатор, нормално е като видят какво може чатГПТ-то да почнат да го боготворят и да правят жертвоприношения. В по-тъпия фором гледах че яначков беше обявил бота за по-интелигентен от хуманите.
Абе аз ли съм малоумен, или света се е побъркал с тия глупости. ChatGPT е един auto-complete, статистически модел, най-обикновена програма в крайна сметка, толкова е опасен и разбира света около себе си колкото един джобен калкулатор.
Е те хората не знят как им работи джобния калкулатор, нормално е като видят какво може чатГПТ-то да почнат да го боготворят и да правят жертвоприношения. В по-тъпия фором гледах че яначков беше обявил бота за по-интелигентен от хуманите.
А бе възможно е! 🤔 Изглежда ми по-умен от средния мангал... единствения му недостатък е, че не може да се размножава, ама и това сигурно скоро ще се реши.
Питах го дали проявява интерес към женски чат-ботки, но каза, че не проявява. Но поне знае, че има само 2 пола, за разлика от много хора.
Има един закон на Тюринг, не знам защо го забравяте В тоя закон има две величини - човек и машина, за да се мине теста има два варианта - или машината да е много умна, или човека да е много тъп. В случая с чатботовете е очевидно на кое се залага.
Абе аз ли съм малоумен, или света се е побъркал с тия глупости. ChatGPT е един auto-complete, статистически модел, най-обикновена програма в крайна сметка, толкова е опасен и разбира света около себе си колкото един джобен калкулатор.
По тази логика, смятай, че каквато и програма да пуснеш на компютъра винаги можеш да кажеш, че тя е статистически модел, най-обикновена програма. Тоест, излиза, че програма не може да притежава интелект по принцип – твърдение, което е очевидно грешно.
Даже и да приемем, че точно chatGPT няма интелект, то програмата, която ще има, принципно няма да се различава от него. Пак байтове, които ще се изпълняват на процесор.
За да говорим за strong AI, първо трябва да имаме математически модел на процесите в мозъка ни, които ни правят интелигенти, self-aware, да имаме съзнание и т.н., а такъв модел досега никой не се е и доближил да направи.
Кой е казал, че силният ИИ трябва да прилича на нашият интелект??? Няма такова правило. Алгоритмите на ИИ могат да са и съвсем различни от нашите. Важното е способността да обработва информацията и да взаимодейства с външния свят.
Второ, че дори и да разпишеш и моделираш като софтуер интеракциите в мозъка ни, които ни правят self-aware, то според някой философски експерименти това ще е просто симулация, а не нещо наистина живо. Т.е. може би трябва да имаш и някакъв специален "хардуер" за да имаш изкуствени съзнания, и тогава софтуера ще се явява digital mind, но и в това няма никакъв прогрес в момента. То трябва да се почне с примитивни организми, да се мине през животни, и чак тогава хора.
Ами трябва да си направиш някаква дефиниция на "интелект", която принципно да може да включва и изкуствения интелект. Или да заявиш, че ИИ е невъзможен по принцип.
Иначе, то и аз мога да заявя, че и ти, и въобще всички, освен мене, нямат никакъв интелект ами само симулират интелект.
Твърдение, очевидно идиотско, но има даже такива философи. (виж за т.н. "философско зомби"). Разбира се, това са пълни глупости и солипсизъм.
Лично моето мнение е, че ако нещо изглежда като разумно и действа като разумно, значи е разумно.
Специално за chatGPT, първо аз бих му дал интерфейс да помни сесиите и да се обучава на тях (не знам за тези невронни мрежи дали това е възможно, но по всяка вероятност да). Второ, бих пробвал да го закача към някакъв по-сложен интерфейс с реалния свят – камера и микрофони примерно. Трето, някакви изпълнителни механизми – някакъв робот с ръка например.
И гледаме какво прави, или не прави. Съответно решаваме дали е разумен или не е разумен. Не забравяме, че ИИ не е длъжен да е по-умен от хората за да го признаем за интелигентен. Иначе става като във вица:
Седи един мъж на пейка в парка и играе шах с кучето си.
"Кой е казал, че силният ИИ трябва да прилича на нашият интелект" - а каква според теб е дефиницията за ИИ?
Теста на Тюринг не е лоша отправна точка. И впрочем, chatGPT го минава.
Затова и си мисля, че скоро ще го отрекат – наблюдавам някаква странна тенденция всички упорито да доказват, че chatGPT е "просто програма". Много ми прилича на тенденциите от едно време да обявяват негрите за не съвсем разумни.
Е то ти като комунист си съответно и философски материалист, т.е. си длъжен да твърдиш
Говоря за AGI/Strong AI, в някой дефиниции трябва да има съзнание и self-awareness както нас, просто машинна имплементация на нашия мозък. Да има чувства и емоции, да го третираме като "жив" обект който осъзнава съществуването си и може да изпитва реални неща както нас.
А за да е "реално" и "живо", не би могло да бъде изцяло от софтуер, иначе ще е симулация. Примерно China brain . Примерно нервната ни система, хормоните и другите химикали в мозъка ни влият и ни правят живи. Иначе на теория може да опишеш състоянието на клетките в мозъка на даден човек, и дадена програма да изчислява следващото им състояние, но като нямаш физическа интеракция между тези "носители" си остава обикновена програма.
Е то ти като комунист си съответно и философски материалист, т.е. си длъжен да твърдиш
Говоря за AGI/Strong AI, в някой дефиниции трябва да има съзнание и self-awareness както нас, просто машинна имплементация на нашия мозък. Да има чувства и емоции, да го третираме като "жив" обект който осъзнава съществуването си и може да изпитва реални неща както нас.
А за да е "реално" и "живо", не би могло да бъде изцяло от софтуер, иначе ще е симулация. Примерно China brain . Примерно нервната ни система, хормоните и другите химикали в мозъка ни влият и ни правят живи. Иначе на теория може да опишеш състоянието на клетките в мозъка на даден човек, и дадена програма да изчислява следващото им състояние, но като нямаш физическа интеракция между тези "носители" си остава обикновена програма.
Ти сега просто с много думи написа, че според тебе силен ИИ може да притежава само и единствено биологичен човек. Тоест, каквото и да ти представят, ти ще твърдиш, че е имитация. Твое право, но подобни схващания очевидно са задънена улица.
"Кой е казал, че силният ИИ трябва да прилича на нашият интелект" - а каква според теб е дефиницията за ИИ?
Теста на Тюринг не е лоша отправна точка. И впрочем, chatGPT го минава.
Затова и си мисля, че скоро ще го отрекат – наблюдавам някаква странна тенденция всички упорито да доказват, че chatGPT е "просто програма". Много ми прилича на тенденциите от едно време да обявяват негрите за не съвсем разумни.
Абе Джони, инженер си, не се излагай. Теста на Тюринг твърди че трябва да сбъркаш бота с човек, е сложи бота до себе си и дай да го направим теста наживо да видим дали ще го мине.
Абе Джони, инженер си, не се излагай. Теста на Тюринг твърди че трябва да сбъркаш бота с човек, е сложи бота до себе си и дай да го направим теста наживо да видим дали ще го мине.
Според теста на Тюринг, интерфейса и с човека и с ИИ трябва да е по канал за връзка, по който наблюдателят да не може пряко да установи кой кой е.
Е то ти като комунист си съответно и философски материалист, т.е. си длъжен да твърдиш
Говоря за AGI/Strong AI, в някой дефиниции трябва да има съзнание и self-awareness както нас, просто машинна имплементация на нашия мозък. Да има чувства и емоции, да го третираме като "жив" обект който осъзнава съществуването си и може да изпитва реални неща както нас.
А за да е "реално" и "живо", не би могло да бъде изцяло от софтуер, иначе ще е симулация. Примерно China brain . Примерно нервната ни система, хормоните и другите химикали в мозъка ни влият и ни правят живи. Иначе на теория може да опишеш състоянието на клетките в мозъка на даден човек, и дадена програма да изчислява следващото им състояние, но като нямаш физическа интеракция между тези "носители" си остава обикновена програма.
Ти сега просто с много думи написа, че според тебе силен ИИ може да притежава само и единствено биологичен човек. Тоест, каквото и да ти представят, ти ще твърдиш, че е имитация. Твое право, но подобни схващания очевидно са задънена улица.
Доколкото знам, в момента нито може да се потвърди това, нито да се отхвърли. Трябва още доста напредък в доста науки.
Но едно чисто софтуерно решение не би трябвало да може да е силен ИИ. Все пак има качествена разлика между живота и софтуера, чисто софтуерното решение най-много би могло да е симулация, колкото и напреднало да е.
Трябва да има поне и хардуер, който да е функционално еквивалентен на нервната система.
Абе Джони, инженер си, не се излагай. Теста на Тюринг твърди че трябва да сбъркаш бота с човек, е сложи бота до себе си и дай да го направим теста наживо да видим дали ще го мине.
Според теста на Тюринг, интерфейса и с човека и с ИИ трябва да е по канал за връзка, по който наблюдателят да не може пряко да установи кой кой е.
Абе вие инженерите сте лишени от въображение Правиш един нов акаунт, водим с теб дискусия по тоя акаунт която ти копираш в бота и по някое време вместо да отговориш ти слагаш отговора на бота
Теста на Тюринг не е лоша отправна точка. И впрочем, chatGPT го минава.
Затова и си мисля, че скоро ще го отрекат – наблюдавам някаква странна тенденция всички упорито да доказват, че chatGPT е "просто програма". Много ми прилича на тенденциите от едно време да обявяват негрите за не съвсем разумни.
Трудно ще го "отрекат" след като на първо място не е "признат" за някакво категорична общовалидна дефиниция за интелигентност. Теста е дефиниран изключително общо и можеш да твърдиш че чатГПТ го "минава" само ако си го нагласиш специално за да може бота да го мине.
Абе Джони, инженер си, не се излагай. Теста на Тюринг твърди че трябва да сбъркаш бота с човек, е сложи бота до себе си и дай да го направим теста наживо да видим дали ще го мине.
Според теста на Тюринг, интерфейса и с човека и с ИИ трябва да е по канал за връзка, по който наблюдателят да не може пряко да установи кой кой е.
Абе вие инженерите сте лишени от въображение Правиш един нов акаунт, водим с теб дискусия по тоя акаунт която ти копираш в бота и по някое време вместо да отговориш ти слагаш отговора на бота
Е, на мене не ми е много интересно да правя тест на Тюринг на chatGPT. Първо, други вече са го правили. Второ, точно на български, резултата няма да е меродавен, заради отвратителното токенизиране, а то силно влияе на резултатите. Трето, за да е валиден теста, всички участници трябва да знаят за експеримента.
Евлампи
Създадено на 30.03.2023, видяно: 244 пъти. #88363
Все пак има качествена разлика между живота и софтуера, чисто софтуерното решение най-много би могло да е симулация, колкото и напреднало да е.
Кое ни дава че ние не сме симулация?
А качествена разлика между живот и софтуер НЯМА освен ако не се приеме че има души муши и прочие глупости, това разбира се е гадно хапче за вярващите в 'свободната воля' :)