Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет ivanov_petrov ([info]ivanov_petrov)
@ 2010-08-28 08:32:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Построение ИИ в отдельно взятой
- Если фундаментально, то в страшилках об ИИ по моему происходит подмена понятий. От технологий плавно переходят с рассуждениям об искусственном разуме и его опасностях. Но ведь ИИ и искусственный обладающий самосознанием разум это совершенно разные вещи. ИИ нужен, искусственный разум нет (естественный то некуда девать). Чего ждут от ИИ? Того чтобы он производил некоторые интеллектуальные операции причем танцуют от результата. Если что-то умеет делать выводы приблизительно как человек, то какая разница как оно делает это внутри нейронной сетью или генетическими алгоритмами или неонкой.

- да. Мне кажется самой важной именно эта подмена понятий. потому что обратным рачьим ходом разум определяется как то, что делает ИИ. Мы ведь строили разум? теперь мы построили и, значит, знаем, что это и как работает.

(c) [info]zh3l@lj

- Мне кажется, до этой подмены ещё не дошло, даже в массовом сознании. Если заглянуть в массовую Вики, то там написано: тест Тюринга не отвечает на вопрос "может ли машина думать", он отвечает на вопрос "может ли машина пройти тест Тюринга". Сейчас в Штатах один из ведущих по этому вопросу -- Джон Серль (John Searle), Беркли. Я слушала его курс "Философия разума". Он четко разделяют ИИ и разум, хотя часть лекций разбирает аргументы противники, и видно, что противников хватает. Но и они, и их аргументы довольно старые. Хотя и у Серля старые: синтаксис против семантики и "компьютер, полностью имитирующий летучую мышь не ощущает себя летучей мышью, не знает, что такое быть летучей мышью". К сожалению, часто аргументы самого Серля сводятся к "поверьте мне, это так". Т.е. проблема описана хорошо, а аргументы, как мне показалось, нет. Основной тезис -- отказ от "наследия Декарта", от дуализма. Сознание -- неотделимое свойство мозга; проблема точки перехода от химии, нейронов и проч. к мышлению -- то, что представляется самым трудным, вот этот самый неуловимый момент, решается отказом от этого вопроса. Перехода нет. Сознание -- свойство массы нейронов, наподобие того, так "мокрота" (wetness) -- свойствуо массы молекул воды. Может, это и так, мне трудно сказать, я не читала ничего по сознанию. Но он дальше не поясняет, например, откуда и как берётся эта мокрость. Понятно, что это "просто ощущения". Но всё-таки, по моим "ощущениям", загадочность перехода остаётся -- что от нейронов до сознания, что от молекул воды к её мокрости.
Это я к тому, что всё-таки Беркли -- не последний университет, и там пока ИИ и разум разделяют, и весьма запальчиво. На вопрос "можно ли будет когда-нибудь создать разум" Серль отвечает: принципиальная возможность есть, но осуществить её "машинным, синтаксическим способом" невозможно. Ну и причины, почему так.

- Это хорошо, если так. Но я бы обратил Ваше внимание на симптом. Я сравнительно регулярно помещаю в этом журнале какие-то тексты о том, что ИИ "почти" создан - ну, как здесь. Это отсылки к совершенно реальным работам и авторам. и в комментариях обязательно находится несколько человек - совершенно точно не глупых и в курсе дела - которые говорят нечто вроде: нет, это не ИИ, это не решающий шаг, до ИИ еще 5 лет. Или 10. То есть имеется весьма распространенная вера, что построят за несколько лет. И, с другой стороны, часто те же люди совершают ту редукцию, о которой Вы говорите, совершают акт колмогоровщины. Известное дело, умница Колмогоров высказал простую мысль: если есть живое существо, то существует некая группа моделей (он, конечно, не уточнял), которая должна также именоваться живой. Это разумно, да? Мало ли насколько приближенными будут модели, можно человека с искусственным ногтем назвать моделью человека - всё, кролик выпрыгнул из шляпы. Точно так же эти ребята редуцируют сознание до мокрости - существуют такие группы нейронов, которые будут обладать сознанием. Опа, задачка решена. Можно (в некоторых условиях - это уже детали) приравнять группу нейронов к сознанию и разуму. Oтсюда что? Нет, эта болтовня не дает ходов к практическому построению ИИ, это - способ изменения собственного мышления. Люди начинают так думать, а следовательно - так себя вести. Искусственный разум строится вовсе не снаружи, в лабораториях, а исключительно изнутри и по собственному желанию.


(Читать комментарии) - (Добавить комментарий)

мокрота/wetness свойство массы молекул воды
[info]berest@lj
2010-08-28 03:08 (ссылка)
какие-то странные примеры, сводящие на нет все остальные аргументы. Почему человек считает воду единственной возможной жидкостью?) Что с ним не так?)
и дело вовсе не в недостатках перевода
wet
1) moistened, covered, saturated, etc., with water or some other liquid


Более того, возникают и иные вопросы: можно ли его логические построения называть продуктом "разума"?)

(Ответить) (Ветвь дискуссии)

Re: мокрота/wetness свойство массы молекул воды
[info]ivanov_petrov@lj
2010-08-28 03:26 (ссылка)
"Использование частицы "не" имеет несколько нюансов:

1. Затрудняется восприятие фразы. На осмысление фразы, содержащей эту частицу требуется больше времени, чем на фразу, сказанную позитивно.
В головном мозгу существуют области, отвечающие за аналоговую, чувственную обработку информации и области, которые занимаются логической обработкой информации - анализируют, сортируют, классифицируют. Чтобы представить себе "не зеленый" цвет требуются дополнительные, качественно иные действия мозга, чем для представления просто синего цвета. Первый случай требует активности обоих участков - необходимо произвести выбор цвета, проверить его на принадлежность к диапазону зеленого цвета.
2. Эта частица может существенно лишать фразу информативности, будучи использованной с частями речи у которых нет очевидных антонимов. Предложение "Я не делал ему гадостей" дает ничтожно мало информации о взаимоотношениях людей. Гораздо меньше, чем "Я был лоялен по отношению к нему". А антонимов нет у многих слов. Нет антонимов у числительных (двадцать, четверо), у некоторых существительных, прилагательных, глаголов. Например у слов шкаф, дорога, петля, кукурузный, деревянный, обернуться, кувыркаться. Поэтому Сергей Горин ("А вы пробовали гипноз?") несколько лукавил, когда говорил, что все может сказать в позитиве, только к слову "некурящий" затрудняется подобрать синоним без "не". Как бы он сказал "не ревнивый"?
3. Элемент многозначности может присутствовать, даже когда частица "не" используется в сочетании со словом имеющим традиционный антоним. Например фраза "не веселый" может восприниматься как "грустный", а может так же мало говорить о состоянии человека как и описание "не зеленый" говорит о цвете предмета.
4. Просьбы, построенные с использованием частицы "не" обычно выполняются с точностью "до наоборот", особенно детьми... "
http://www.psihonto.ru/article/61.htm

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: мокрота/wetness свойство массы молекул воды
[info]berest@lj
2010-08-28 06:15 (ссылка)
Не понял) Не могли бы вы пояснить, при чём здесь частица "не"?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 06:31 (ссылка)
Ну, Вы спросили "что с ним не так".

Я позволил себе немного пошутить, извините, пожалуйста. Я не придумал, что всерьез отвечать - Вы ведь спросили про человека, можно ли его логические построения считать разумными. Это такое завуалированное оскорбление. Дело привычное, но к чему вы хотите, чтобы я на это реагировал всерьез?

(Ответить) (Уровень выше)


(Читать комментарии) -