Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет argonov ([info]argonov)
@ 2011-05-24 03:30:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Мой доклад с конференции
Выкладываю свой доклад, который я делал в Стокгольме на конференции Towards a science of consciousness (конференция проходила 2-7 мая 2011) и в Москве на двух семинарах. Доклад выложен на английском, вероятно также сделаю русскую версию. Доклад посвящён моему главному результату за все годы занятий проблематикой сознания - тесту, в котором компьютер проверяют на понимание философских идей о сознании. В отличие от других моих идей в области проблематики сознания, равно как и от большинства других докладов на конференции, эта работа посвящена не столько высказыванию гипотез, сколько разработке твёрдого метода для исследования сознания (в частности, сознания компьютера). Работа, фактически, предлагает прекратить бесконечный спор между "копмьютационалистами" (сторонниками идеи, что сознание - это лишь информационная система), субстратными материалистами, дуалистами и идеалистами, а просто сделать эксперимент, результаты которого могли бы быть приняты каждой стороной. Именно потому, без ложной скромности скажу, работа была действительно с интересом принята участниками, и меня даже пригласили опубликоваться в одном новом журнале, но пока что я пытаюсь с ней пробиться в один более известный журнал

Официальная ссылка:

Argonov V. Yu. Is machine able to talk about consciousness? Rigorous approach to mind-body problem and strong AI // Towards a science of consciousness 2011, P. 59


Ссылка в интернете:

http://complexnumbers.lenin.ru/machine-en.html

Вот основные положения работы в переводе на русский

Результат 1 (строгий): разработан нетьюринговский тест на искусственное сознание:
  1. Разрабатывается интеллектуальная машина
  2. Экспериментатор должен быть уверен, что она не имеет доступа к источникам философских знаний (книги, дискуссии, информационные модели других конкретных существ)
  3. Изучаются её собственные идеи о мироустройстве
  • Если машина самостоятельно описывает все основные известные нам философские проблемы сознания - она сознательна, и информационно-ориентированный материализм (компьютационализм) верен
  • Если машина самостоятельно описывает лишь некоторые философские проблемы сознания - интерпретация более сложна
Результат 2 (нестрогий): предложена схема искусственного генератора философских идей:

Предложена схема робота, который предположительно способен частично пройти данный тест. В ходе взаимодействия с окружающей средой он способен сформировать ряд философских идей о сознании, включая даже дуалистическую идею души. Однако, он, предположительно, не способен понять проблему качеств (qualia). В связи с этим, его сознательность является сомнительной, а проблема качеств - возможно, единственная "трудная" проблема сознания по классификации, предложенной Д. Чалмерсом


(Добавить комментарий)


[info]i_ddragon@lj
2011-05-23 20:36 (ссылка)
Всё же кривая идея какая-то.
Бредогенератор например тоже рано или поздно выдаст книгу, где будут затрагиваться филисофские проблемы сознания, причём, даже рано или поздно он выдаст такую книгу, из которой мы сможем почерпнуть принципиально новые мысли на эту тему.
С другой стороны, предполагается что обладающие сознанием существа достаточно похожи на людей, чтобы говорить на понятном им языке.

(Ответить) (Ветвь дискуссии)


[info]argonov@lj
2011-05-23 21:01 (ссылка)
один из постулатов (см англ вариант), фактически, и состоит в том, что идеи о сознании достаточно сложны, чтобы вероятностью их случайного появления можно было пренебречь

(Ответить) (Уровень выше)


[info]madzhugin@lj
2011-05-26 11:34 (ссылка)
Когда-то говорили, что если усадить миллион обезъян за печатные машинки и заставить стучать по клавишам, они таки напишут когда-нибудь "Войну и Мир".

В нашу жизнь пришел интернет и уже миллиард обезьян каждый день давит баттоны, а "Войны и Мира" все нет...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]i_ddragon@lj
2011-05-27 02:52 (ссылка)
Ага, а я махал руками и не полетел, значит, летать невозможно.
Короче, подобный комментарий говорит, что вы абсолютно ничего не поняли в "миллионе обезьян".

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-05-27 02:57 (ссылка)
Мой тест претендует на то, чтобы иметь какое-то отношение к практике. События, которые ни разу за всю историю земли, по видимому, не могут случиться, нас не интересуют. Самопроизвольное появление войны и мира - из их числа. Вы же не будете считать равновероятным, что война и мир написаны толстым и обезянами. Так и тут, когда ребёнок самопроизвольно говорит о проблеме качеств или о возможности реинкарнации, я предполагаю, что это тоже происходит именно потому что он обладает сознанием, а не потому, что так случайно сложились буквы

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]i_ddragon@lj
2011-05-27 16:49 (ссылка)
Конечно, я утрировал. Но мы ведь изначально закладываем какие-то знания в компьютер. Что если проблему сознания можно вывести из них просто операциями формальной логики? Тогда получается машина, перебирающая все формально-логические выводы из заложенных в неё аксиом, является обладающей сознанием.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-06-01 04:31 (ссылка)
Если вывод о существовании сознания можно сделать из чисто объективных физических сведений (причём не включающих в себя сведения о содержании философских книг ), и найти доказательство, то это само по себе будет интересным открытием. Результат такого теста будет трудно строго интерпретировать, потому что будет неясно - комп сознателен или же говорит о сознании, потому что неявно получил о нём сведения из сведений об устройстве материи.

Но, вероятно, чтение текста доказательства позволит многое понять точнее. В частности, является ли идея сознания когнитивной ошибкой (проверить элимин. материализм)

(Ответить) (Уровень выше)


[info]madzhugin@lj
2011-05-27 10:49 (ссылка)
Ваш комментарий говорит о том, что вы даже не представляете масштабов тех чисел которыми пытаетесь оперировать.
Допустим ваш бердогенератор генерирует килобайт текста в секунду. Пусть минимальный размер фразы из которой вы можете почерпнуть какую-то идею, ну скажем 256 символов (ну афоризм какой-нибудь). Тогда каждую секунду генерятся примерно 4 таких набора символов претендующих на такой афоризм. Сколько вам потребуется времени чтобы полычить все перестановки? Легко 33^256/4 секунд (я не считал знаки препинания и выкинул ё). Т.е. это примерно 2^1280 секунд (на самом деле побольше, но будем считать что вы генерите фразы и без пробелов). Возраст современной вселенной примерно 2^5*10^16 (тут мне лень считать, но положим что у наст 2^5*8^16=2^5*2^48) т.е. примерно 2^53.
И вот теперь подумайте где 2^53, а где нужные вашему бредогененратору 2^1280 и больше не болтайте ерунды про какие-то там книги.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]i_ddragon@lj
2011-05-27 16:51 (ссылка)
Извинясю, не понял суть вашего возражения - думал, вы утверждаете, что порождение "Войны и мира" бредогенератором невозможно в принципе, а не просто невероятно.
Оветил выше Аргонову.

(Ответить) (Уровень выше)


[info]elven_gypsy@lj
2011-05-23 20:46 (ссылка)
А сам тест?

(Ответить) (Ветвь дискуссии)


[info]argonov@lj
2011-05-23 21:02 (ссылка)
1. Разрабатывается интеллектуальная машина
2. Экспериментатор должен быть уверен, что она не имеет доступа к источникам философских знаний (книги, дискуссии, информационные модели других конкретных существ)
3. Изучаются её собственные идеи о мироустройстве

* Если машина самостоятельно описывает все основные известные нам философские проблемы сознания - она сознательна, и информационно-ориентированный материализм (компьютационализм) верен
* Если машина самостоятельно описывает лишь некоторые философские проблемы сознания - интерпретация более сложна

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]elven_gypsy@lj
2011-05-23 21:26 (ссылка)
Да нет. Это я все уже слышала)) Это ж общая схема, а не тест, и такую машину вот прямо сейчас никто не разработает.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-05-23 21:30 (ссылка)
в этом и есть тест. Какие ещё подробности нужны?) В самом докладе в основном приведены обоснования, почему такая интерпретация верна. А сам тест предельно прост по формулировке

разумеется, сейчас такой машины пока не нету, ибо она слишком сложна. Хуже того, я чувствую что она должна быть гораздо умнее человека, чтобы самостоятельно понять о существовании внешнего мира. Человек-то пользуется шаблонами

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]elven_gypsy@lj
2011-05-23 21:40 (ссылка)
Ну вот именно что умнее)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-05-23 21:44 (ссылка)
тем не менее: важен принцип. Теоретически показано, что можно в тесте, хотя бы с умным компом, выявить наличие сознания. И это серьёзно противоречит тому, во что верит значительная часть людей

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]elven_gypsy@lj
2011-05-23 21:59 (ссылка)
Ясно.

(Ответить) (Уровень выше)


[info]omant@lj
2011-05-23 20:46 (ссылка)
а можно ли заставить пройти этот тест, допустим, кузнечика?
если да, то робота можно и не делать - интересно, как опишет мир кузнечик.
если нет, то чем от него будет отличаться робот?

(Ответить) (Ветвь дискуссии)


[info]argonov@lj
2011-05-23 21:02 (ссылка)
тест работает в одну сторону. кузнечик даст отрицательный вариант, но это ничего не значит )

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]omant@lj
2011-05-23 21:04 (ссылка)
как же тогда понять робота? почему это будет проще, чем кузнечика?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-05-23 21:06 (ссылка)
робот должен быть очень интеллектуален

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]the_rion@lj
2011-05-23 22:42 (ссылка)
а унутре у него неонка!

(Ответить) (Уровень выше)


[info]misima@lj
2011-05-23 20:51 (ссылка)
>>Разрабатывается интеллектуальная машина
Возможно ли выплонение данного условия в наше время? Или в обозримой перспективе?

(Ответить) (Ветвь дискуссии)


[info]argonov@lj
2011-05-23 21:04 (ссылка)
в наше - нет, в обозримой - трудно сказать. но в общем да, теоретически может оказаться что комп не сможет пройти даже обычный тест тьюринга

(Ответить) (Уровень выше)


[info]anhinga_anhinga@lj
2011-05-24 00:14 (ссылка)
Но очень трудно себе представить, что удастся разработать сильный ИИ и при этом держать его в изоляции от сети.

Так что это, скорее, thought experiment, чем реальный рецепт.

(Ответить) (Ветвь дискуссии)


[info]argonov@lj
2011-05-24 05:27 (ссылка)
он может быть сильным не во всех стронах. например можно его лишить потребнсоти противоречить людям

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]anhinga_anhinga@lj
2011-05-24 10:44 (ссылка)
Для этого нужен очень большой контроль за этим процессом.

Но я, скорее, имел в виду стандартный аргумент, что команда разработчиков, использующая сильные средства, которые, в частности используют data mining по интернету, будет иметь большие преимущества, и, скорее всего, именно оттуда появится ИИ, вполне подавляюший по своей функциональности (потом он может поставить эксперимент, описанный в посте, или дать людям его поставить, и это будет академически интересно, но...).

(Ответить) (Уровень выше)


[info]spiritualape@lj
2011-05-24 03:11 (ссылка)
1. Вы, конечно, отдаете себе отчет, что большинство граждан этот тест провалят?
2. Вот когда ребенок трех лет - это сознание? Или еще нет?
3. Вот я, человек, испорченный НЛП. Практически любое проявление сознания свожу к условным рефлексам - я УЖЕ не способен рассуждать о дуалистической душе.
Как-то так.

(Ответить) (Ветвь дискуссии)


[info]argonov@lj
2011-05-24 05:28 (ссылка)
тест работает в одну сторону, посмотрите внимательно. он может лишь выявить сознание но не наоборот

3 года - вполне. теоретически от такого ребёнка можно уже извлечь философские суждения, хотя и не знаю, получалось ли это на практике

(Ответить) (Уровень выше)


[info]vitus_wagner@lj
2011-05-24 04:11 (ссылка)
Непонятно зачем нужна машина-бездельник. Глубокомысленных бездельников, способых обсуждать философские проблемы, но не способных забить гвоздь в стенку и так миллионы, если не миллиарды. Может быть более интересной задачей является создание интеллектуальной машны, способной производить ремонт домов или хотя бы убираться в квартире? Причем во втором случае она должна уметь самостоятельно выяснять что хозяин считает "порядком", а что "беспорядком" и поддерживать первый, адаптируясь к возникающим у хозяина изменениям в представлениях.

(Ответить) (Ветвь дискуссии)


[info]argonov@lj
2011-05-24 05:29 (ссылка)
затем чтобы понять не только машину но и своё устройство

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vitus_wagner@lj
2011-05-24 05:38 (ссылка)
Ну так в нашем устройстве главное то, что мы, помимо всего прочего, еще и живые организмы. Машины для выживания в определенной окружающей среде.

Поэтому пытаться изучать самих себя, посредством моделирования отходов человеческой цивилизации, это примерно то же самое, как пытаться изучить функционирование организма коровы, изучая исключительно ее навоз.

Да, анализ кала может многое сказать о здоровье организма (особенно, если организм больной). Но не следует забывать, что у той же коровы целевая функция это скорее привесы и производство молока.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-05-24 05:48 (ссылка)
в данном случае наиболее чистый эксперимент возможен именно на отходах цивилизации, ибо у них нет врожденных знаний, или как минимум они легко подконтрольны

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vitus_wagner@lj
2011-05-24 05:57 (ссылка)
В качестве отхода цивилизации я рассматриваю философию и рассуждения о душе. Причем токсичного отхода.

А врожденных знаний у человека никаких нет.

Поэтому эксперимент с освоением забивания гвоздей или лепки горшков на гончарном круге - ничуть не менее чистый.

(Ответить) (Уровень выше)


[info]turchin@lj
2011-05-24 04:29 (ссылка)
Поздравляю с хорошей идеей и с публикацией

(Ответить) (Ветвь дискуссии)


[info]argonov@lj
2011-05-24 05:31 (ссылка)
ну с идеей я этой давно ношусь и частично ввёл её в 2032, но опубликована в бумаге впервые. Причём в международном сборнике известной конфы

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]turchin@lj
2011-05-24 05:36 (ссылка)
я в скайпе сейчас

(Ответить) (Уровень выше)


[info]corshun@lj
2011-05-24 05:13 (ссылка)
Да, русскую версию выложить было бы не плохо!

(Ответить) (Ветвь дискуссии)


[info]argonov@lj
2011-05-24 05:32 (ссылка)
будет. там перевести - делать нечего особо, только надо, чтобы руки дошли

(Ответить) (Уровень выше)


[info]plumbax@lj
2011-05-24 05:19 (ссылка)
Жаль, что пока по-английски. Было бы очень интересно.
Как я полагаю, данная работа исходит из предпосылки о невозможности так называемого "философского зомби". Поскольку если "философский зомби" возможен, то любые озвучиваемые компьютером суждения ни о чём бы не говорили.

(Ответить) (Ветвь дискуссии)


[info]argonov@lj
2011-05-24 05:33 (ссылка)
нет, такой предпосылки там нет! там есть лишь предпосылка, что такой зомби должен иметь знания по философским проблемам, если он хочет говорить о них

(Ответить) (Уровень выше)


[info]awertum@lj
2011-05-24 07:30 (ссылка)
Поясните, пожалуйста, пока нет перевода на русский следующую строчку:
> Indivisibility (we can’t imagine 2 or 1.5 instances of “me”)
Как понять, что мы не можем вообразить 2-х экземпляров себя?

(Ответить) (Ветвь дискуссии)


[info]brazix@lj
2011-05-24 16:11 (ссылка)
Предполагаю, дело было так: ОП с товарищами сели, попробовали такое вообразить и решили, что не могут. О чем ОП и написал.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-05-24 19:11 (ссылка)
вот так в россии обычно и представляют
а в англоязычном мире, проблема неделимости признаётся общепринято. И не мы должны доказывать непонимающим, что она есть, а наоборот, элиминативисты пытаются доказать нам, что она является псевдопроблемой

но если неделимость сознания - это иллюзия (хотя я не понимаю, как может быть иллюзорным что либо касающееся сознания, ведь оно само по себе по определению субъективно), то необходимо обяснить, почему возникает такая когнитивная ошибка

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]brazix@lj
2011-05-25 03:08 (ссылка)
изучать и объяснять, конечно, желательно было бы все.
только в первом абзаце из фразы "а в англоязычном мире.. и не мы должны.. элиминативисты пытаются доказать нам" получается деление(лол№1) на "мы" (=англоязычный мир (лол№2)) и элиминативистов, и указание кто кому должен(лол№3).

(Ответить) (Уровень выше)


[info]denis_dx@lj
2011-05-24 08:19 (ссылка)
Здравствуйте, Виктор!

Меня, как Вы знаете, зовут Денис, но сегодня я так устал на работе, что чувствую себя просто как зомби. А так как мне ужасно хочется пофилософствовать, прошу называть меня сегодня Философским Зомби. Ничего так имя, а?

Для того, что бы решать, имеет ли некто сознание (ну, например, я - чем не пример?) - надо понять, что такое сознание.
Я сегодня так устал, что уже не понимаю этого слова. Не обьясните? Важно это очень. Простыми словами.

Может ли Философский Зомби пофилософствовать о своём сознании?

(Ответить) (Ветвь дискуссии)


[info]argonov@lj
2011-05-24 19:07 (ссылка)
зомби может рассуждать о сознании если у него есть знания о нём, либо может самостоятельно рассуждать о тех аспектах сознания которые не связаны с его глубинными свойствами, а просто затрагивают когнитивные структуры, которые у зомби тоже есть

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]denis_dx@lj
2011-05-24 19:48 (ссылка)
Но что же такое сознание? Как мы можем убедиться, что говорим об одном и том же? А то, может, моё "сознание" и Ваше сознание - разные вещи?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-05-25 22:35 (ссылка)
детектировать в тесте, что комп действительно говорит об этом - не очень просто формализуемая задача. Но согласись, ведь даже ты, отрицая ряд специфических проблем сознания, понимаешь, когда кто-то говорит о них

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]denis_dx@lj
2011-05-26 08:50 (ссылка)
Написал на работе офигенный ответ - а там ЖЖ закрыт. Приехал домой и понял, что первый раз за неделю выключил рабочий комп. Придётся по памяти.

Да, Виктор, я понимаю, когда кто-то говорит о сознании. Но это не значит, что оно существует (по крайней мере в том виде, в каком его понимают говорящие)
Я лично понимаю под сознанием феномен того, что нечто функционирует в нормальном для него режиме и способно взаимодействовать со средой. Можно сузить это до человека - то есть, если оно с руками, ногами и не лежит как бревно - значит, у него есть сознание.
Однако в моём понимании сознания робот, ведущий себя "сознательно", обладает сознанием по определению.

Ваше же сознание похоже на понятие "бог" - все им пользуются, но все понимают под ним разное.

Что бы обсуждать вопросы, связанные с сознанием, необходимо говорить по крайней мере об одному и том же. Потому я повторяю вопрос- что такое сознание в Вашем понимании? Назовём его А-сознание.

(Ответить) (Уровень выше)


[info]entorfianguard@lj
2011-05-24 10:14 (ссылка)
Думал, дождался, а тут опять тезисы.

Подскажите, когда, приблизительно, будет опубликован полный текст доклада (желательно, на русском, но если нет - то и english version сойдет). Без этого ну никак вывод о "проблеме качеств" в голове моей не желает укладываться.

(Ответить) (Ветвь дискуссии)


[info]argonov@lj
2011-05-24 19:18 (ссылка)
английский - можно сказать что и есть полный. вывод о проблеме качеств сделан гипотетически. робот в предложенной конструкции может вывести весь сенсорный поток на эффекторы, а человек - не может полностью передать информацию о красном свете. Вот и обоснование. Можно конечно руками запретить ему выводить какие-то параметры и также руками прописать ложное утверждение, что эти параметры не могут быть сведены к цифрам. Но последнее уже является практически явным нарушением условий эсперимента

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]entorfianguard@lj
2011-05-25 01:23 (ссылка)
А что такого робот может вывести о красном свете? Длину волны? Так это доступно и человеку. Вопрос же, как я понимаю, сводится к субъективному восприятию этой самой длины волны - и тут, мне кажется, робот окажется ровно в таком же тупике. Во всяком случае не вижу, что этому может воспрепятствовать.

Именно поэтому и хотелось бы посмотреть всю цепочку построений.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-05-25 18:49 (ссылка)
человек не просто находится в тупике, но также в его мозгу есть непосредственные механизмы, которые порождают рассказы человека о том, что субъективный красный - это нечто совсем иное чем объективный. Красный цвет субъективен, но рассказ о нём объективен. Так вот и вопрос, возникнет ли такой парадокс у робота

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]entorfianguard@lj
2011-05-26 06:52 (ссылка)
При двух условиях 1. робот знает (или допускает возможность) о существовании подобных ему
2. Робот не знает, тождественно ли устройство его "органов чувств" (сенсоров и "экрана восприятия" - на схеме) устройству аналогичных приспособлений у других роботов

При этих двух условиях вывод о возможности разного восприятия одинаковых физических объектов, как мне кажется, неизбежен.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-05-26 07:53 (ссылка)
дело вот в чём. робот не знает устройства своего экрана, но инфа, которая там находится - полностью цифровая. По сути это набор цифр. Может быть раскиданный, по регистрам. Робот может взять их и целиком вывести на эффекторы. И регистры может перечислить. После этого сказав: если вы имеете представление о цифрах, вы поймёте эту инфу. Это полная инфа, другой нет. А человек сразу встаёт в тупик, он даже не может пронумеровать качества, не говоря о том чтобы их описать. И даже зная что другой человек имеет представление о качествах - он всё равно не может ему их нормально пересказать, понимая что может быть несоответствие

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]entorfianguard@lj
2011-05-26 09:54 (ссылка)
Вот момент, который я упустил, спасибо.

Правда тут возникает другой вопрос - а не является ли тогда вообще сама проблема качеств временным явлением? То есть, при соответствующем уровне знаний о работе головного мозга, не станет ли процесс описания своих ощущений столь же доступным для человека как для этого гипотетического робота?

Впрочем, это совершенно отдельный вопрос, напрямую к теме не относящийся.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-05-26 18:52 (ссылка)
>а не является ли тогда вообще сама проблема качеств временным явлением? То есть, при соответствующем уровне знаний о работе головного мозга, не станет ли процесс описания своих ощущений столь же доступным для человека как для этого гипотетического робота?

на мой взгляд, это и есть главный вопрос проблемы качеств. Если верен материализм, то качества тоже теоретически доступны для наблюдения. Хотя даже Энгельс в это не верил, причём эту убеждённость в полемике выражал в грубой форме

(Ответить) (Уровень выше)


[info]argonov@lj
2011-05-26 07:56 (ссылка)
у робота не видно, откуда должен взяться дуализм между цифрой и её представлением. цифра это абстрактный объект. Возможно, если у робота появится сознание, тогда этот дуализм появится, и для него цифры 1 и 0 будут иметь конкретный субъективный непередаваемый вид, но он тогда сможет об этом рассказать. В приведённой схеме я не вижу оснований к тому, чтобы робот вдруг решил о таком рассказывать. Тогда как дуализм сознания и материи у него уже выявился налицо

(Ответить) (Уровень выше)


[info]brazix@lj
2011-05-24 18:04 (ссылка)
картинка зачотная.

(Ответить)


(Анонимно)
2011-05-25 16:51 (ссылка)
Можно ли в качестве примера привести одну-две "проблемы сознания", о которых идёт речь?

Пока что у меня есть великое сомнение: не являются ли означенные "проблемы" продуктами не разума, но недомыслия? И нельзя ли в таком случае считать описываемый тест "тестом на искусственную глупость"?

Pointer

(Ответить) (Ветвь дискуссии)


[info]argonov@lj
2011-05-25 18:54 (ссылка)
в этом случае надо указать на конкретные ошибки, которые порождают эти рассуждения. ВпрочеМ, некоторые из них и так очевидны: невозможность разобрать себя и нормально проанализировать внутреннее устройство, и, в частности, неясность механизма появления сновидений. Многие философские вопросы возникают у робота именно из-за этого. И, по видимому, также возникли у человека. Но вряд ли все вопросы именно таковы. Замечу, что при полной безошибочности мышления, недостаток опытных данных, разумеется, будет порождать множество гипотез

(Ответить) (Уровень выше) (Ветвь дискуссии)


(Анонимно)
2011-05-26 03:55 (ссылка)
Ну, выяснится, к примеру, что компьютер анализирует передаточную функцию "чёрного ящика" (коим, допустим, сам для себя является) и выдвигает соответствующие предположения о его конструкции. И что? Дело привычное, где тут "философские проблемы и вопросы"?

Чем гипотезирование в области собственного устройства отличается от гипотезирования вообще и, в частности, от банальной экстраполяции?

Pointer

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-05-26 03:59 (ссылка)
>Чем гипотезирование в области собственного устройства отличается от гипотезирования вообще

тем, что собственное устройство - важнейший вопрос, от которого в известной степени зависит всё мироустройство

(Ответить) (Уровень выше) (Ветвь дискуссии)


(Анонимно)
2011-05-26 08:41 (ссылка)
Прекрасно. Если это важнейший вопрос, то он и возникает в первую очередь, даже у самых примитивных механизмов.
Например, сейчас во многих приложениях компьютеры оценивают собственное быстродействие в сравнении с требуемым по задаче и исходя из этого выбирают подходящий алгоритм, жертвуя, по необходимости, точностью или достоверностью результата.
Да что компьютеры - в паровые машины с незапамятных времён встраиваются предохранительные клапаны, чтобы котёл не надорвался. Так что паровоз Черепановых проходит твой тест на ать-два.

Pointer

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-05-26 18:56 (ссылка)
пусть паровоз расскажет мои идеи об устройстве сознания, тогда признаю что он прошёл тест. Если он пытается рассказать мне это так, что я не понимаю - тест не пройден

(Ответить) (Уровень выше) (Ветвь дискуссии)


(Анонимно)
2011-05-27 05:38 (ссылка)
Паровоз может сделать даже круче, чем рассказать - он может показать, причём не твои идеи собственного устройства, а свои собственные. Максимально наглядно.

> Если он пытается рассказать мне это так, что я не понимаю - тест не пройден.

Кем? Тем, кто не понимает того, что видит?

Давай так: ты расскажешь паровозу свои идеи, и если он не поймёт - ты завалил тест.

Pointer

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-05-27 05:41 (ссылка)
ну и ок, я завалю. устал уже всем повторять, отрицательный результат теста сам по себе не доказывает практически ничего

(Ответить) (Уровень выше)


[info]dr_veider@lj
2011-05-26 17:55 (ссылка)
Мне кажется ваша идея о таком тесте имеет ценность только как "мысленный эксперимент"
А реальной практической ценности в обозримом будущем от этого мало:

Чтобы ИИ стал сильным, он должен работать с информацией и "учиться".
А значит он по определению не сможет быть изолирован от информации о смысле бытия, о сущности сознания, о субъективности и т.п.
Потому что почти любое литературное произвдение или высказывание человека так или иначе содержит в себе элементы философских суждений. И ИИ на это должен обратить внимание.

(Ответить) (Ветвь дискуссии)


[info]argonov@lj
2011-05-26 18:46 (ссылка)
>А значит он по определению не сможет быть изолирован от информации о смысле бытия, о сущности сознания, о субъективности и т.п

вполне может. есть куча объективных знаний которым учат детей, не трогая философию

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]dr_veider@lj
2011-05-27 09:58 (ссылка)
Как вы считаете такая программа может быть реализована "на коленке" или это дело относительно далекого будущего?

Т.е. возможно ли создание ее действующей модели силами одного-двух-трех программистов средней квалификации?

Например вместо крутого граф.анализатора с искусственными нейронными сетями - простенький. А вместо многообразия образов - некоторое количество картинок с символами

(Ответить) (Уровень выше)