Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет argonov ([info]argonov)
@ 2011-05-24 03:30:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Мой доклад с конференции
Выкладываю свой доклад, который я делал в Стокгольме на конференции Towards a science of consciousness (конференция проходила 2-7 мая 2011) и в Москве на двух семинарах. Доклад выложен на английском, вероятно также сделаю русскую версию. Доклад посвящён моему главному результату за все годы занятий проблематикой сознания - тесту, в котором компьютер проверяют на понимание философских идей о сознании. В отличие от других моих идей в области проблематики сознания, равно как и от большинства других докладов на конференции, эта работа посвящена не столько высказыванию гипотез, сколько разработке твёрдого метода для исследования сознания (в частности, сознания компьютера). Работа, фактически, предлагает прекратить бесконечный спор между "копмьютационалистами" (сторонниками идеи, что сознание - это лишь информационная система), субстратными материалистами, дуалистами и идеалистами, а просто сделать эксперимент, результаты которого могли бы быть приняты каждой стороной. Именно потому, без ложной скромности скажу, работа была действительно с интересом принята участниками, и меня даже пригласили опубликоваться в одном новом журнале, но пока что я пытаюсь с ней пробиться в один более известный журнал

Официальная ссылка:

Argonov V. Yu. Is machine able to talk about consciousness? Rigorous approach to mind-body problem and strong AI // Towards a science of consciousness 2011, P. 59


Ссылка в интернете:

http://complexnumbers.lenin.ru/machine-en.html

Вот основные положения работы в переводе на русский

Результат 1 (строгий): разработан нетьюринговский тест на искусственное сознание:
  1. Разрабатывается интеллектуальная машина
  2. Экспериментатор должен быть уверен, что она не имеет доступа к источникам философских знаний (книги, дискуссии, информационные модели других конкретных существ)
  3. Изучаются её собственные идеи о мироустройстве
  • Если машина самостоятельно описывает все основные известные нам философские проблемы сознания - она сознательна, и информационно-ориентированный материализм (компьютационализм) верен
  • Если машина самостоятельно описывает лишь некоторые философские проблемы сознания - интерпретация более сложна
Результат 2 (нестрогий): предложена схема искусственного генератора философских идей:

Предложена схема робота, который предположительно способен частично пройти данный тест. В ходе взаимодействия с окружающей средой он способен сформировать ряд философских идей о сознании, включая даже дуалистическую идею души. Однако, он, предположительно, не способен понять проблему качеств (qualia). В связи с этим, его сознательность является сомнительной, а проблема качеств - возможно, единственная "трудная" проблема сознания по классификации, предложенной Д. Чалмерсом


(Читать комментарии) - (Добавить комментарий)


(Анонимно)
2011-05-26 03:55 (ссылка)
Ну, выяснится, к примеру, что компьютер анализирует передаточную функцию "чёрного ящика" (коим, допустим, сам для себя является) и выдвигает соответствующие предположения о его конструкции. И что? Дело привычное, где тут "философские проблемы и вопросы"?

Чем гипотезирование в области собственного устройства отличается от гипотезирования вообще и, в частности, от банальной экстраполяции?

Pointer

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-05-26 03:59 (ссылка)
>Чем гипотезирование в области собственного устройства отличается от гипотезирования вообще

тем, что собственное устройство - важнейший вопрос, от которого в известной степени зависит всё мироустройство

(Ответить) (Уровень выше) (Ветвь дискуссии)


(Анонимно)
2011-05-26 08:41 (ссылка)
Прекрасно. Если это важнейший вопрос, то он и возникает в первую очередь, даже у самых примитивных механизмов.
Например, сейчас во многих приложениях компьютеры оценивают собственное быстродействие в сравнении с требуемым по задаче и исходя из этого выбирают подходящий алгоритм, жертвуя, по необходимости, точностью или достоверностью результата.
Да что компьютеры - в паровые машины с незапамятных времён встраиваются предохранительные клапаны, чтобы котёл не надорвался. Так что паровоз Черепановых проходит твой тест на ать-два.

Pointer

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-05-26 18:56 (ссылка)
пусть паровоз расскажет мои идеи об устройстве сознания, тогда признаю что он прошёл тест. Если он пытается рассказать мне это так, что я не понимаю - тест не пройден

(Ответить) (Уровень выше) (Ветвь дискуссии)


(Анонимно)
2011-05-27 05:38 (ссылка)
Паровоз может сделать даже круче, чем рассказать - он может показать, причём не твои идеи собственного устройства, а свои собственные. Максимально наглядно.

> Если он пытается рассказать мне это так, что я не понимаю - тест не пройден.

Кем? Тем, кто не понимает того, что видит?

Давай так: ты расскажешь паровозу свои идеи, и если он не поймёт - ты завалил тест.

Pointer

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]argonov@lj
2011-05-27 05:41 (ссылка)
ну и ок, я завалю. устал уже всем повторять, отрицательный результат теста сам по себе не доказывает практически ничего

(Ответить) (Уровень выше)


(Читать комментарии) -