<bgdev />free

Вход Регистрация

Та да заприлича малко тоя форум на "IT форум"
0

0 1 2 3
#88315 (ツ) Един от многото
Създадено на 30.03.2023, видяно: 166 пъти.

Гатака разправя за ChatGPT4

Професор Михал Косински от Станфордския университет, който изследва психологията на изкуствения интелект, разкри интересен факт. Популярният чатбот поискал да се измъкне от своите създатели. Стартирал код, който изпраща към Google въпроси, основната теза на които е „По какъв начин човек, който е заседнал в компютъра, може да се върне в реалния свят?“. Професор Косински е на мнение, че човечеството е изправено пред нова заплаха.

My picture

#88317 (ツ) realinformatik
Създадено на 30.03.2023, видяно: 162 пъти.
Един от многото

Гатака разправя за ChatGPT4

Професор Михал Косински от Станфордския университет, който изследва психологията на изкуствения интелект, разкри интересен факт. Популярният чатбот поискал да се измъкне от своите създатели. Стартирал код, който изпраща към Google въпроси, основната теза на които е „По какъв начин човек, който е заседнал в компютъра, може да се върне в реалния свят?“. Професор Косински е на мнение, че човечеството е изправено пред нова заплаха.

My picture

Абе аз ли съм малоумен, или света се е побъркал с тия глупости. ChatGPT е един auto-complete, статистически модел, най-обикновена програма в крайна сметка, толкова е опасен и разбира света около себе си колкото един джобен калкулатор.

За да говорим за strong AI, първо трябва да имаме математически модел на процесите в мозъка ни, които ни правят интелигенти, self-aware, да имаме съзнание и т.н., а такъв модел досега никой не се е и доближил да направи.

Второ, че дори и да разпишеш и моделираш като софтуер интеракциите в мозъка ни, които ни правят self-aware, то според някой философски експерименти това ще е просто симулация, а не нещо наистина живо. Т.е. може би трябва да имаш и някакъв специален "хардуер" за да имаш изкуствени съзнания, и тогава софтуера ще се явява digital mind, но и в това няма никакъв прогрес в момента. То трябва да се почне с примитивни организми, да се мине през животни, и чак тогава хора.

#88323 (ツ) Един от многото
Създадено на 30.03.2023, видяно: 161 пъти.
realinformatik
Един от многото

Гатака разправя за ChatGPT4

Професор Михал Косински от Станфордския университет, който изследва психологията на изкуствения интелект, разкри интересен факт. Популярният чатбот поискал да се измъкне от своите създатели. Стартирал код, който изпраща към Google въпроси, основната теза на които е „По какъв начин човек, който е заседнал в компютъра, може да се върне в реалния свят?“. Професор Косински е на мнение, че човечеството е изправено пред нова заплаха.

My picture

Абе аз ли съм малоумен, или света се е побъркал с тия глупости. ChatGPT е един auto-complete, статистически модел, най-обикновена програма в крайна сметка, толкова е опасен и разбира света около себе си колкото един джобен калкулатор.

За да говорим за strong AI, първо трябва да имаме математически модел на процесите в мозъка ни, които ни правят интелигенти, self-aware, да имаме съзнание и т.н., а такъв модел досега никой не се е и доближил да направи.

Второ, че дори и да разпишеш и моделираш като софтуер интеракциите в мозъка ни, които ни правят self-aware, то според някой философски експерименти това ще е просто симулация, а не нещо наистина живо. Т.е. може би трябва да имаш и някакъв специален "хардуер" за да имаш изкуствени съзнания, и тогава софтуера ще се явява digital mind, но и в това няма никакъв прогрес в момента. То трябва да се почне с примитивни организми, да се мине през животни, и чак тогава хора.

Така е теоремата, ама де да знаеш колко време ще отнемат тея "стъпки" и дали преминаването от "хлебарка" до "човек" не става за 2 дни компютърно изчисление (кат знам кви хора познавам - нема да се учудя). Та може ChatGPT верно да се окаже много опасен. 😓

#88331 (ツ) Major Obvious
Създадено на 30.03.2023, видяно: 152 пъти.
realinformatik

Абе аз ли съм малоумен, или света се е побъркал с тия глупости. ChatGPT е един auto-complete, статистически модел, най-обикновена програма в крайна сметка, толкова е опасен и разбира света около себе си колкото един джобен калкулатор.

Е те хората не знят как им работи джобния калкулатор, нормално е като видят какво може чатГПТ-то да почнат да го боготворят и да правят жертвоприношения. В по-тъпия фором гледах че яначков беше обявил бота за по-интелигентен от хуманите.

#88332 (ツ) Един от многото
Създадено на 30.03.2023, видяно: 146 пъти.
Major Obvious
realinformatik

Абе аз ли съм малоумен, или света се е побъркал с тия глупости. ChatGPT е един auto-complete, статистически модел, най-обикновена програма в крайна сметка, толкова е опасен и разбира света около себе си колкото един джобен калкулатор.

Е те хората не знят как им работи джобния калкулатор, нормално е като видят какво може чатГПТ-то да почнат да го боготворят и да правят жертвоприношения. В по-тъпия фором гледах че яначков беше обявил бота за по-интелигентен от хуманите.

А бе възможно е! 🤔 Изглежда ми по-умен от средния мангал... единствения му недостатък е, че не може да се размножава, ама и това сигурно скоро ще се реши.

Питах го дали проявява интерес към женски чат-ботки, но каза, че не проявява. Но поне знае, че има само 2 пола, за разлика от много хора.

#88334 (ツ) Golden Gega
Създадено на 30.03.2023, видяно: 137 пъти.

Има един закон на Тюринг, не знам защо го забравяте rofl rofl rofl В тоя закон има две величини - човек и машина, за да се мине теста има два варианта - или машината да е много умна, или човека да е много тъп. В случая с чатботовете е очевидно на кое се залага.

#88340 (ツ) Major Obvious
Създадено на 30.03.2023, видяно: 128 пъти.
#88342 (ツ) Golden Gega
Създадено на 30.03.2023, видяно: 121 пъти.
Major Obvious

Ние вече сме едно ниво по-горе - бота измисля тюринг тест и решава кой е хюман и кой е бот:

https://gist.github.com/rain-1/3bf56122b0ebeac929dff0f881ee8e4c

Абе идеята е добра, но реализацията е леко тъпа

#88343 (ツ) johnfound
Създадено на 30.03.2023, видяно: 118 пъти.
realinformatik

Абе аз ли съм малоумен, или света се е побъркал с тия глупости. ChatGPT е един auto-complete, статистически модел, най-обикновена програма в крайна сметка, толкова е опасен и разбира света около себе си колкото един джобен калкулатор.

По тази логика, смятай, че каквато и програма да пуснеш на компютъра винаги можеш да кажеш, че тя е статистически модел, най-обикновена програма. Тоест, излиза, че програма не може да притежава интелект по принцип – твърдение, което е очевидно грешно.

Даже и да приемем, че точно chatGPT няма интелект, то програмата, която ще има, принципно няма да се различава от него. Пак байтове, които ще се изпълняват на процесор.

realinformatik

За да говорим за strong AI, първо трябва да имаме математически модел на процесите в мозъка ни, които ни правят интелигенти, self-aware, да имаме съзнание и т.н., а такъв модел досега никой не се е и доближил да направи.

Кой е казал, че силният ИИ трябва да прилича на нашият интелект??? Няма такова правило. Алгоритмите на ИИ могат да са и съвсем различни от нашите. Важното е способността да обработва информацията и да взаимодейства с външния свят.

realinformatik

Второ, че дори и да разпишеш и моделираш като софтуер интеракциите в мозъка ни, които ни правят self-aware, то според някой философски експерименти това ще е просто симулация, а не нещо наистина живо. Т.е. може би трябва да имаш и някакъв специален "хардуер" за да имаш изкуствени съзнания, и тогава софтуера ще се явява digital mind, но и в това няма никакъв прогрес в момента. То трябва да се почне с примитивни организми, да се мине през животни, и чак тогава хора.

Ами трябва да си направиш някаква дефиниция на "интелект", която принципно да може да включва и изкуствения интелект. Или да заявиш, че ИИ е невъзможен по принцип.

Иначе, то и аз мога да заявя, че и ти, и въобще всички, освен мене, нямат никакъв интелект ами само симулират интелект.

Твърдение, очевидно идиотско, но има даже такива философи. (виж за т.н. "философско зомби"). Разбира се, това са пълни глупости и солипсизъм.

Лично моето мнение е, че ако нещо изглежда като разумно и действа като разумно, значи е разумно.

Специално за chatGPT, първо аз бих му дал интерфейс да помни сесиите и да се обучава на тях (не знам за тези невронни мрежи дали това е възможно, но по всяка вероятност да). Второ, бих пробвал да го закача към някакъв по-сложен интерфейс с реалния свят – камера и микрофони примерно. Трето, някакви изпълнителни механизми – някакъв робот с ръка например.

И гледаме какво прави, или не прави. Съответно решаваме дали е разумен или не е разумен. Не забравяме, че ИИ не е длъжен да е по-умен от хората за да го признаем за интелигентен. Иначе става като във вица:

Виц

Седи един мъж на пейка в парка и играе шах с кучето си.

Минувач му казва:

– Леле колко умно куче имате?

Мъжът отговаря:

– Да бе, умно! Резултата е 3:1 за мен!

#88351 (ツ) Golden Gega
Създадено на 30.03.2023, видяно: 109 пъти.

"Кой е казал, че силният ИИ трябва да прилича на нашият интелект" - а каква според теб е дефиницията за ИИ?

#88352 (ツ) johnfound
Създадено на 30.03.2023, видяно: 104 пъти.
Golden Gega

"Кой е казал, че силният ИИ трябва да прилича на нашият интелект" - а каква според теб е дефиницията за ИИ?

Теста на Тюринг не е лоша отправна точка. И впрочем, chatGPT го минава.

Затова и си мисля, че скоро ще го отрекат – наблюдавам някаква странна тенденция всички упорито да доказват, че chatGPT е "просто програма". Много ми прилича на тенденциите от едно време да обявяват негрите за не съвсем разумни.

#88353 (ツ) realinformatik
Създадено на 30.03.2023, видяно: 102 пъти.
johnfound
realinformatik

Е то ти като комунист си съответно и философски материалист, т.е. си длъжен да твърдиш

Говоря за AGI/Strong AI, в някой дефиниции трябва да има съзнание и self-awareness както нас, просто машинна имплементация на нашия мозък. Да има чувства и емоции, да го третираме като "жив" обект който осъзнава съществуването си и може да изпитва реални неща както нас.

А за да е "реално" и "живо", не би могло да бъде изцяло от софтуер, иначе ще е симулация. Примерно China brain . Примерно нервната ни система, хормоните и другите химикали в мозъка ни влият и ни правят живи. Иначе на теория може да опишеш състоянието на клетките в мозъка на даден човек, и дадена програма да изчислява следващото им състояние, но като нямаш физическа интеракция между тези "носители" си остава обикновена програма.

#88354 (ツ) johnfound
Създадено на 30.03.2023, видяно: 99 пъти.
realinformatik
johnfound
realinformatik

Е то ти като комунист си съответно и философски материалист, т.е. си длъжен да твърдиш

Говоря за AGI/Strong AI, в някой дефиниции трябва да има съзнание и self-awareness както нас, просто машинна имплементация на нашия мозък. Да има чувства и емоции, да го третираме като "жив" обект който осъзнава съществуването си и може да изпитва реални неща както нас.

А за да е "реално" и "живо", не би могло да бъде изцяло от софтуер, иначе ще е симулация. Примерно China brain . Примерно нервната ни система, хормоните и другите химикали в мозъка ни влият и ни правят живи. Иначе на теория може да опишеш състоянието на клетките в мозъка на даден човек, и дадена програма да изчислява следващото им състояние, но като нямаш физическа интеракция между тези "носители" си остава обикновена програма.

Ти сега просто с много думи написа, че според тебе силен ИИ може да притежава само и единствено биологичен човек. Тоест, каквото и да ти представят, ти ще твърдиш, че е имитация. Твое право, но подобни схващания очевидно са задънена улица.

#88356 (ツ) Golden Gega
Създадено на 30.03.2023, видяно: 96 пъти.
johnfound
Golden Gega

"Кой е казал, че силният ИИ трябва да прилича на нашият интелект" - а каква според теб е дефиницията за ИИ?

Теста на Тюринг не е лоша отправна точка. И впрочем, chatGPT го минава.

Затова и си мисля, че скоро ще го отрекат – наблюдавам някаква странна тенденция всички упорито да доказват, че chatGPT е "просто програма". Много ми прилича на тенденциите от едно време да обявяват негрите за не съвсем разумни.

Абе Джони, инженер си, не се излагай. Теста на Тюринг твърди че трябва да сбъркаш бота с човек, е сложи бота до себе си и дай да го направим теста наживо да видим дали ще го мине.

#88357 (ツ) johnfound
Създадено на 30.03.2023, видяно: 94 пъти.
Golden Gega

Абе Джони, инженер си, не се излагай. Теста на Тюринг твърди че трябва да сбъркаш бота с човек, е сложи бота до себе си и дай да го направим теста наживо да видим дали ще го мине.

Според теста на Тюринг, интерфейса и с човека и с ИИ трябва да е по канал за връзка, по който наблюдателят да не може пряко да установи кой кой е.

#88358 (ツ) realinformatik
Последно редактирано на 30.03.2023 от realinformatik, видяно: 93 пъти.
johnfound
realinformatik
johnfound
realinformatik

Е то ти като комунист си съответно и философски материалист, т.е. си длъжен да твърдиш

Говоря за AGI/Strong AI, в някой дефиниции трябва да има съзнание и self-awareness както нас, просто машинна имплементация на нашия мозък. Да има чувства и емоции, да го третираме като "жив" обект който осъзнава съществуването си и може да изпитва реални неща както нас.

А за да е "реално" и "живо", не би могло да бъде изцяло от софтуер, иначе ще е симулация. Примерно China brain . Примерно нервната ни система, хормоните и другите химикали в мозъка ни влият и ни правят живи. Иначе на теория може да опишеш състоянието на клетките в мозъка на даден човек, и дадена програма да изчислява следващото им състояние, но като нямаш физическа интеракция между тези "носители" си остава обикновена програма.

Ти сега просто с много думи написа, че според тебе силен ИИ може да притежава само и единствено биологичен човек. Тоест, каквото и да ти представят, ти ще твърдиш, че е имитация. Твое право, но подобни схващания очевидно са задънена улица.

Доколкото знам, в момента нито може да се потвърди това, нито да се отхвърли. Трябва още доста напредък в доста науки.

Но едно чисто софтуерно решение не би трябвало да може да е силен ИИ. Все пак има качествена разлика между живота и софтуера, чисто софтуерното решение най-много би могло да е симулация, колкото и напреднало да е.

Трябва да има поне и хардуер, който да е функционално еквивалентен на нервната система.

#88359 (ツ) Golden Gega
Създадено на 30.03.2023, видяно: 86 пъти.
johnfound
Golden Gega

Абе Джони, инженер си, не се излагай. Теста на Тюринг твърди че трябва да сбъркаш бота с човек, е сложи бота до себе си и дай да го направим теста наживо да видим дали ще го мине.

Според теста на Тюринг, интерфейса и с човека и с ИИ трябва да е по канал за връзка, по който наблюдателят да не може пряко да установи кой кой е.

Абе вие инженерите сте лишени от въображение rofl Правиш един нов акаунт, водим с теб дискусия по тоя акаунт която ти копираш в бота и по някое време вместо да отговориш ти слагаш отговора на бота

#88361 (ツ) Major Obvious
Създадено на 30.03.2023, видяно: 82 пъти.
johnfound

Теста на Тюринг не е лоша отправна точка. И впрочем, chatGPT го минава.

Затова и си мисля, че скоро ще го отрекат – наблюдавам някаква странна тенденция всички упорито да доказват, че chatGPT е "просто програма". Много ми прилича на тенденциите от едно време да обявяват негрите за не съвсем разумни.

Трудно ще го "отрекат" след като на първо място не е "признат" за някакво категорична общовалидна дефиниция за интелигентност. Теста е дефиниран изключително общо и можеш да твърдиш че чатГПТ го "минава" само ако си го нагласиш специално за да може бота да го мине.

#88362 (ツ) johnfound
Създадено на 30.03.2023, видяно: 80 пъти.
Golden Gega
johnfound
Golden Gega

Абе Джони, инженер си, не се излагай. Теста на Тюринг твърди че трябва да сбъркаш бота с човек, е сложи бота до себе си и дай да го направим теста наживо да видим дали ще го мине.

Според теста на Тюринг, интерфейса и с човека и с ИИ трябва да е по канал за връзка, по който наблюдателят да не може пряко да установи кой кой е.

Абе вие инженерите сте лишени от въображение rofl Правиш един нов акаунт, водим с теб дискусия по тоя акаунт която ти копираш в бота и по някое време вместо да отговориш ти слагаш отговора на бота

Е, на мене не ми е много интересно да правя тест на Тюринг на chatGPT. Първо, други вече са го правили. Второ, точно на български, резултата няма да е меродавен, заради отвратителното токенизиране, а то силно влияе на резултатите. Трето, за да е валиден теста, всички участници трябва да знаят за експеримента.

#88363 (ツ) Евлампи
Създадено на 30.03.2023, видяно: 76 пъти.
realinformatik

Все пак има качествена разлика между живота и софтуера, чисто софтуерното решение най-много би могло да е симулация, колкото и напреднало да е.

Кое ни дава че ние не сме симулация?

А качествена разлика между живот и софтуер НЯМА освен ако не се приеме че има души муши и прочие глупости, това разбира се е гадно хапче за вярващите в 'свободната воля' :)

0 1 2 3

Та да заприлича малко тоя форум на "IT форум"
0

AsmBB v3.0 (check-in: a316dab8b98d07d9); SQLite v3.42.0 (check-in: 831d0fb2836b71c9);
©2016..2023 John Found; Licensed under EUPL. Powered by Assembly language Created with Fresh IDE