Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет ivanov_petrov ([info]ivanov_petrov)
@ 2010-08-28 08:32:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Построение ИИ в отдельно взятой
- Если фундаментально, то в страшилках об ИИ по моему происходит подмена понятий. От технологий плавно переходят с рассуждениям об искусственном разуме и его опасностях. Но ведь ИИ и искусственный обладающий самосознанием разум это совершенно разные вещи. ИИ нужен, искусственный разум нет (естественный то некуда девать). Чего ждут от ИИ? Того чтобы он производил некоторые интеллектуальные операции причем танцуют от результата. Если что-то умеет делать выводы приблизительно как человек, то какая разница как оно делает это внутри нейронной сетью или генетическими алгоритмами или неонкой.

- да. Мне кажется самой важной именно эта подмена понятий. потому что обратным рачьим ходом разум определяется как то, что делает ИИ. Мы ведь строили разум? теперь мы построили и, значит, знаем, что это и как работает.

(c) [info]zh3l@lj

- Мне кажется, до этой подмены ещё не дошло, даже в массовом сознании. Если заглянуть в массовую Вики, то там написано: тест Тюринга не отвечает на вопрос "может ли машина думать", он отвечает на вопрос "может ли машина пройти тест Тюринга". Сейчас в Штатах один из ведущих по этому вопросу -- Джон Серль (John Searle), Беркли. Я слушала его курс "Философия разума". Он четко разделяют ИИ и разум, хотя часть лекций разбирает аргументы противники, и видно, что противников хватает. Но и они, и их аргументы довольно старые. Хотя и у Серля старые: синтаксис против семантики и "компьютер, полностью имитирующий летучую мышь не ощущает себя летучей мышью, не знает, что такое быть летучей мышью". К сожалению, часто аргументы самого Серля сводятся к "поверьте мне, это так". Т.е. проблема описана хорошо, а аргументы, как мне показалось, нет. Основной тезис -- отказ от "наследия Декарта", от дуализма. Сознание -- неотделимое свойство мозга; проблема точки перехода от химии, нейронов и проч. к мышлению -- то, что представляется самым трудным, вот этот самый неуловимый момент, решается отказом от этого вопроса. Перехода нет. Сознание -- свойство массы нейронов, наподобие того, так "мокрота" (wetness) -- свойствуо массы молекул воды. Может, это и так, мне трудно сказать, я не читала ничего по сознанию. Но он дальше не поясняет, например, откуда и как берётся эта мокрость. Понятно, что это "просто ощущения". Но всё-таки, по моим "ощущениям", загадочность перехода остаётся -- что от нейронов до сознания, что от молекул воды к её мокрости.
Это я к тому, что всё-таки Беркли -- не последний университет, и там пока ИИ и разум разделяют, и весьма запальчиво. На вопрос "можно ли будет когда-нибудь создать разум" Серль отвечает: принципиальная возможность есть, но осуществить её "машинным, синтаксическим способом" невозможно. Ну и причины, почему так.

- Это хорошо, если так. Но я бы обратил Ваше внимание на симптом. Я сравнительно регулярно помещаю в этом журнале какие-то тексты о том, что ИИ "почти" создан - ну, как здесь. Это отсылки к совершенно реальным работам и авторам. и в комментариях обязательно находится несколько человек - совершенно точно не глупых и в курсе дела - которые говорят нечто вроде: нет, это не ИИ, это не решающий шаг, до ИИ еще 5 лет. Или 10. То есть имеется весьма распространенная вера, что построят за несколько лет. И, с другой стороны, часто те же люди совершают ту редукцию, о которой Вы говорите, совершают акт колмогоровщины. Известное дело, умница Колмогоров высказал простую мысль: если есть живое существо, то существует некая группа моделей (он, конечно, не уточнял), которая должна также именоваться живой. Это разумно, да? Мало ли насколько приближенными будут модели, можно человека с искусственным ногтем назвать моделью человека - всё, кролик выпрыгнул из шляпы. Точно так же эти ребята редуцируют сознание до мокрости - существуют такие группы нейронов, которые будут обладать сознанием. Опа, задачка решена. Можно (в некоторых условиях - это уже детали) приравнять группу нейронов к сознанию и разуму. Oтсюда что? Нет, эта болтовня не дает ходов к практическому построению ИИ, это - способ изменения собственного мышления. Люди начинают так думать, а следовательно - так себя вести. Искусственный разум строится вовсе не снаружи, в лабораториях, а исключительно изнутри и по собственному желанию.


(Читать комментарии) - (Добавить комментарий)


[info]_ieronim@lj
2010-08-28 07:44 (ссылка)
тест Тьюринга в слабом варианте был вполне себе пройден программой Parry — я не помню статистику, но большинство разговаривавших с ней психиатров не сумели отличить ее от реального параноика.

Шахматная программа Rybka представляет собой воплощение представлений нескольких людей о том, что такое игра в шахматы, наложенные на очень эффективный алгоритм поиска. Ее непрерывно подкручивают, допиливают, и она выносит всех оппонентов в первую очередь за счет правильной стратегии, которую человек, пусть даже понимая все используемые программой "правила", никогда не сможет всю удержать в голове.

Поисковик Яндекса уже давно использует самообучение для выбора оптимального алгоритма ранжирования.

Мне кажется, ИИ в "научно-фантастическом" понимании, мегакомпьютер, принимающий решения, касающиеся жизни людей, возможно, управляющий людьми, но при этом находящийся за пределами их понимания (ну, скажем, как в "Остряке" у Азимова или в Нейроманте у Гибсона), если и будет создан, то окажется скорее родственником вышеупомянутым системам, чем моделям групп нейронов. К самоосознанию и копированию мышления человека это все имеет слабое отношение, конечно.

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 08:04 (ссылка)
мне казалось, что всерьез тест Тьюринга не воспринимается - это игра для журналистов. но, может быть, я ошибаюсь.

тут рядом юзер 109 дает ссылки на серьезные проекты, где ИИ понимается профессионально.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]_ieronim@lj
2010-08-28 09:44 (ссылка)
Насколько я понимаю исходную статью (http://dx.doi.org/10.1093/mind/LIX.236.433) Тьюринга, он вообще не предлагал таким образом тестировать машины на разумность. Он предлагал от идеи "проверки, может ли машина мыслить" перейти к идее "провести формализованный тест в форме разговора". Как философская концепция это действительно очень удобно. Ну то есть там сложнее, но я не Тьюринг, чтобы компактно изложить его идеи :) Статья читается очень легко, очень забавна (мне особенно нравится пункт про телепатию и экстрасенсорику), но в то же время покрывает почти все вопросы, которые я тут вижу в каментах.

При этом есть энное число программ (parry просто была первой), которые могут обмануть собеседника и убедить его, что он разговаривает с человеком, и эти программы никто не называет ИИ. Но машина, способная в широкой области беседовать с человеком на естественном для него языке, на мой взгляд, гораздо ближе к "обычному" представлению об ИИ, чем модель кучки нейтронов. А задача "поддержания беседы" почти решена.

Если почитать сайт Cyc, становится понятно, что это по сути очень большая база данных, гигантский граф с возможностью быстрого поиска и задания вопросов на квазиестественном языке. А отнюдь не попытка воспроизвести сознание как кучу нейронов. Так что я не вижу противоречия тому, что я написал.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 09:49 (ссылка)
Не буду спорить. Мне интересней узнать о "почти". Видите ли, есть очень серьезная граница между поддержанием беседы и разговором. Существует множество риторических приемов и языковых игр, которые довольно формальны и могут неопределенно долго поддерживать иллюзию чего-то вроде разговора. грубо говоря - английский разговор о погоде. Думаю, не трудно написать программу, которая будет длить разговор о погоде не менее, чем воспитанный англичанин. Мне бы казалось, это вообще ничего не говорит о возможности построения ИИ.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]_ieronim@lj
2010-08-28 10:07 (ссылка)
Примеры программ, поддерживающих беседу, говорят о том, что обычная письменная речь вполне может использоваться как метод ввода для "общения" с машиной. А дальше все упирается только в сложность программы и ее базы данных :)

Доказать, что программа никогда не станет достаточно сложна и велика, чтобы разговор с ней стал интересен, весьма затруднительно. Я, например, надеюсь при жизни увидеть электронных консультантов на заседаниях, скажем, советов директоров крупных фирм — или хотя бы услышать о таких. Да, к ним будет по-прежнему применим аргумент китайской комнаты, но какая разница?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 10:15 (ссылка)
Нет, я не о доказательстве - это совсем другой разговор, и довольно странный. Так как никто не доказал, что ангелов на игле 104, то следует считать верным ранее принятое число 102. Общение с машиной на естественном языке - да, я немного (и только внешне, разумеется) представляю такие программы. но это не то. Я бы ожидал, что вы скажете, когда появятся вменяемые переводчики, авто референты и прочая такая штука. Прочее же - на мой взгляд, смысловые уловки, которые позволяют не говорить на заданную тему.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]_ieronim@lj
2010-08-28 10:45 (ссылка)
Я не работаю в этой области, поэтому мне довольно сложно делать подобные предсказания :) С доказательством вопрос отнюдь не странный и не праздный, потому что человеческий мозг работает совсем иначе, чем компьютер, и доказать, что точно воспроизвести поведение человека (или даже амебы) как организма невозможно, даже если построить компьютер размером с Юпитер, достаточно просто. Для этого нужен молекулярно-динамический расчет на уровне coupled cluster — несколько суток для расчета одной точки для одной молекулы аммиака на современном железе, и растущий по сложности в зависимости от объема системы быстрее, чем четвертая степень.

Прогресс автопереводчиков достаточно силен - плохо знающие язык люди переводят значительно хуже, чем Google Translate, как показывает опыт моей работы с некоторыми соавторами :) Мне кажется, что автопереводчики - это плохой пример, они только за счет количественных улучшений через 20 лет будут весьма и весьма вменяемыми.

Автореферент - более сложный вопрос, но спам уже сейчас программы фильтруют хорошо, и деление документов на "важные" и "неважные" в автоматическом режиме вполне можно себе представить.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 10:50 (ссылка)
Да, не получается. Ну что же.

(Ответить) (Уровень выше)


[info]praeinant@lj
2010-08-29 05:37 (ссылка)
С доказательством вопрос отнюдь не странный и не праздный, потому что человеческий мозг работает совсем иначе, чем компьютер, и доказать, что точно воспроизвести поведение человека (или даже амебы) как организма невозможно, даже если построить компьютер размером с Юпитер, достаточно просто. Для этого нужен молекулярно-динамический расчет на уровне coupled cluster — несколько суток для расчета одной точки для одной молекулы аммиака на современном железе, и растущий по сложности в зависимости от объема системы быстрее, чем четвертая степень.

И это к какому базисному выводу ведет? Что у ''амебы'' и т.д. есть ''компьютер качественно лучшего порядка'' или суть в ''качественно лучшем программном обеспечении''...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]_ieronim@lj
2010-08-29 08:10 (ссылка)
Ни то, ни другое. Просто уравнение Шредингера для более чем одного электрона не имеет решения в аналитическом виде, а с хорошими приближенными решениями тоже засада — их считать долго. Поскольку жизнь клетки представляет собой исключительно сложную совокупность весьма разнообразных химических реакций, механический подход для описания ее жизни неприемлем.

Клетка как целое представляет собой качественно более сложную систему, чем те, которые мы умеем описывать точно. В отличие от, например, индивидуальных молекул, кристаллов, сплавов, растворов.

Но вполне возможно, что еще появятся хорошие модели клетки как целого, позволяющие рассчитать, скажем, ее реакцию на неизвестный препарат. Из таких моделек можно будет построить неплохую модель мозга :)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]praeinant@lj
2010-08-29 09:15 (ссылка)
Ни то, ни другое. Просто уравнение Шредингера для более чем одного электрона не имеет решения в аналитическом виде, а с хорошими приближенными решениями тоже засада — их считать долго.

Ну, аналитика по моему несколько больше чем уравнение Шредингера... и откуда такая вера, что аналитика должна начаться от уровня электронов...

Поскольку жизнь клетки представляет собой исключительно сложную совокупность весьма разнообразных химических реакций, механический подход для описания ее жизни неприемлем.

А Вы можете обосновать почему механический подход для описания ее жизни неприемлем. По моему даже очень приемлем и неизбежен (если рассматривать жизнь клетки как процесс), только если механику рассматривать в более широком плане нежели угадывается из ваших уст..

Но вполне возможно, что еще появятся хорошие модели клетки как целого, позволяющие рассчитать, скажем, ее реакцию на неизвестный препарат. Из таких моделек можно будет построить неплохую модель мозга :)

Из этих слов мне создается впечатление, что клетка есть мозг в миниатюре... но, по моему, и аналитика, и ''механика'' этому препятствует... (рядом с железом/мозгом есть и программное/разум...)...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]_ieronim@lj
2010-08-29 09:41 (ссылка)
Я имел в виду в данном случае всего лишь метод молекулярной механики (шарики-пружинки плюс кулоновские плюс вандерваальсовы силы), который пригоден для расчета очень больших систем, но пасует при описании химических реакций.

Уйдя от уровня электронов "выше", вы утратите способность описывать химические реакции. А химически те же нейроны в мозгу взаимодействуют не в меньшей степени, чем электрически.

Клетка - не мозг. Но без клеток мозга не было бы :)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]praeinant@lj
2010-08-29 15:44 (ссылка)
По моему это зацикливание непостредсвенно на мозгу, разум/интеллект нечто больше чем ограника мозга...
А может клетка, при работе интеллекта ,отвечает только за инженерный аспект... и вы преувеличиваете значение инженерного нюанса в познании всего спектра интеллекта и к познанию его есть не только этот один путь...
По моему общая ''механика'' намного информативнее... разум не обязательно должен быть одноцентричная/клеткоценричная система, намного больше шансов что разум многоцентричная система...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]praeinant@lj
2010-08-30 02:20 (ссылка)

(Ответить) (Уровень выше)


[info]misha_makferson@lj
2010-08-30 03:26 (ссылка)
По видимому надо вводить разделение искусственный псевдоинтеллект (экспертная система это не интеллект) и истинный ИИ. :-))

(Ответить) (Уровень выше)


[info]rednyrg721@lj
2010-08-29 16:23 (ссылка)
Интересно, подходили ли к тесту Тьюринга с противоположной стороны — то есть, разрабатывали ли стратегию для выявления потенциального АИ путем задавания хитропридуманных вопросов. Что-то вроде http://en.wikipedia.org/wiki/Voight-Kampff_machine, но на лингвистическом уровне. Мне как-то не попадалось подобное.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-30 02:01 (ссылка)
к сожалению, не знаю

(Ответить) (Уровень выше)


(Читать комментарии) -