Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет ivanov_petrov ([info]ivanov_petrov)
@ 2010-08-28 08:32:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Построение ИИ в отдельно взятой
- Если фундаментально, то в страшилках об ИИ по моему происходит подмена понятий. От технологий плавно переходят с рассуждениям об искусственном разуме и его опасностях. Но ведь ИИ и искусственный обладающий самосознанием разум это совершенно разные вещи. ИИ нужен, искусственный разум нет (естественный то некуда девать). Чего ждут от ИИ? Того чтобы он производил некоторые интеллектуальные операции причем танцуют от результата. Если что-то умеет делать выводы приблизительно как человек, то какая разница как оно делает это внутри нейронной сетью или генетическими алгоритмами или неонкой.

- да. Мне кажется самой важной именно эта подмена понятий. потому что обратным рачьим ходом разум определяется как то, что делает ИИ. Мы ведь строили разум? теперь мы построили и, значит, знаем, что это и как работает.

(c) [info]zh3l@lj

- Мне кажется, до этой подмены ещё не дошло, даже в массовом сознании. Если заглянуть в массовую Вики, то там написано: тест Тюринга не отвечает на вопрос "может ли машина думать", он отвечает на вопрос "может ли машина пройти тест Тюринга". Сейчас в Штатах один из ведущих по этому вопросу -- Джон Серль (John Searle), Беркли. Я слушала его курс "Философия разума". Он четко разделяют ИИ и разум, хотя часть лекций разбирает аргументы противники, и видно, что противников хватает. Но и они, и их аргументы довольно старые. Хотя и у Серля старые: синтаксис против семантики и "компьютер, полностью имитирующий летучую мышь не ощущает себя летучей мышью, не знает, что такое быть летучей мышью". К сожалению, часто аргументы самого Серля сводятся к "поверьте мне, это так". Т.е. проблема описана хорошо, а аргументы, как мне показалось, нет. Основной тезис -- отказ от "наследия Декарта", от дуализма. Сознание -- неотделимое свойство мозга; проблема точки перехода от химии, нейронов и проч. к мышлению -- то, что представляется самым трудным, вот этот самый неуловимый момент, решается отказом от этого вопроса. Перехода нет. Сознание -- свойство массы нейронов, наподобие того, так "мокрота" (wetness) -- свойствуо массы молекул воды. Может, это и так, мне трудно сказать, я не читала ничего по сознанию. Но он дальше не поясняет, например, откуда и как берётся эта мокрость. Понятно, что это "просто ощущения". Но всё-таки, по моим "ощущениям", загадочность перехода остаётся -- что от нейронов до сознания, что от молекул воды к её мокрости.
Это я к тому, что всё-таки Беркли -- не последний университет, и там пока ИИ и разум разделяют, и весьма запальчиво. На вопрос "можно ли будет когда-нибудь создать разум" Серль отвечает: принципиальная возможность есть, но осуществить её "машинным, синтаксическим способом" невозможно. Ну и причины, почему так.

- Это хорошо, если так. Но я бы обратил Ваше внимание на симптом. Я сравнительно регулярно помещаю в этом журнале какие-то тексты о том, что ИИ "почти" создан - ну, как здесь. Это отсылки к совершенно реальным работам и авторам. и в комментариях обязательно находится несколько человек - совершенно точно не глупых и в курсе дела - которые говорят нечто вроде: нет, это не ИИ, это не решающий шаг, до ИИ еще 5 лет. Или 10. То есть имеется весьма распространенная вера, что построят за несколько лет. И, с другой стороны, часто те же люди совершают ту редукцию, о которой Вы говорите, совершают акт колмогоровщины. Известное дело, умница Колмогоров высказал простую мысль: если есть живое существо, то существует некая группа моделей (он, конечно, не уточнял), которая должна также именоваться живой. Это разумно, да? Мало ли насколько приближенными будут модели, можно человека с искусственным ногтем назвать моделью человека - всё, кролик выпрыгнул из шляпы. Точно так же эти ребята редуцируют сознание до мокрости - существуют такие группы нейронов, которые будут обладать сознанием. Опа, задачка решена. Можно (в некоторых условиях - это уже детали) приравнять группу нейронов к сознанию и разуму. Oтсюда что? Нет, эта болтовня не дает ходов к практическому построению ИИ, это - способ изменения собственного мышления. Люди начинают так думать, а следовательно - так себя вести. Искусственный разум строится вовсе не снаружи, в лабораториях, а исключительно изнутри и по собственному желанию.


(Добавить комментарий)


[info]omant@lj
2010-08-28 01:45 (ссылка)
интересно, а если появится ии, который думает не так, как люди или как летучая мышь, а как машина, люди смогут понять, что это ии?

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 03:12 (ссылка)
"И отец, и дед, и даже шурин, и все совершенно Башмачкины ходили в сапогах, переменяя только раза три в год подметки"

(Ответить) (Уровень выше)


[info]jktue@lj
2010-08-28 04:23 (ссылка)
"думает не так" хаха, а может это и называться будет как то иначе.

если и летучая мышь, и человек думают,

тогда и шахматная программа вполне себе "думает", и поисковик "думает" :)), и томограф что-то там себе придумывает :))

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]omant@lj
2010-08-28 04:36 (ссылка)
ну ладно, а если взять детей. они ведь только достигнув определенного возраста смогут пройти какой-нибудь тест, хотя интеллект, подозреваю, у них в наличии с самого рождения. если придумать тест, способный обнаружить интеллект у новорожденного, а потом натравить его на, скажем, муравейник...

был же проект, к сожалению не смог найти сейчас ссылку. там брали провода, надевали на голову людям и смотрели на рисунки, рисуемые нейроимпульсами на мониторе по какому-то алгоритму. сравнивали что получается у разных людей, мышей, обезьян, закономерности какие-то. а потом в качестве источника взяли трафик с каких-то крупных интернет-узлов и оказалось, что получается нечто похожее на крыс... так может ии уже есть, только вот заставить эти же узлы пройти какой-нибудь тест нельзя.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]jktue@lj
2010-08-28 05:03 (ссылка)
а если взять детей. они ведь только достигнув определенного возраста смогут пройти какой-нибудь тест

- у них нет цели пройти тест.

где брали провода немножко научно называется Electroencephalography (EEG). Все остальное написанное, i mean, в части сравнения людей, мышей и интернет-узлов звучит мягко скажем диковато. Видимо очень далеко от правлы.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]omant@lj
2010-08-28 05:33 (ссылка)
да, к сожалению не нашел, давно было дело
там было нечто подобное, только чуть иначе визуализировано
а потом в эти точки подавались уровни активности веб-серверов и картинка была чем-то подобна
но не так уж и бредово

Image

(Ответить) (Уровень выше)


[info]omant@lj
2010-08-28 05:34 (ссылка)
а цель пройти тест...
у исследователей может быть цель сделать тест, который могут пройти даже те, у кого нет такой цели.

(Ответить) (Уровень выше)


[info]marina_fr@lj
2010-08-28 04:48 (ссылка)
Ну, нам, например, трудно понять даже, как думают люди, не владеющие языком. А среди глухих детей слышаших, но недостаточно культурных родителей такие вроде бы встречаются. И, судя по всему, как-то думают. Глухонемые художники вроде как были определённо.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 05:23 (ссылка)
Image
Пушкин Сергей Львович (1770 г.-1848 г.)
http://www.liveinternet.ru/users/karol-li/post128078293/
Гампельн Карл Карлович (1794-1880)
http://www.artsait.ru/art/g/gampeln/main.htm

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]marina_fr@lj
2010-08-28 09:28 (ссылка)
Очень интересные случаи. Но их как-то учили (в конце 18 - начале 19 го попытки уже были)и обычно писать и читать многие умели. Однако я читала несколько ссылок на необученных и неграмотных глухонемых-художников.

(Ответить) (Уровень выше)

мокрота/wetness свойство массы молекул воды
[info]berest@lj
2010-08-28 03:08 (ссылка)
какие-то странные примеры, сводящие на нет все остальные аргументы. Почему человек считает воду единственной возможной жидкостью?) Что с ним не так?)
и дело вовсе не в недостатках перевода
wet
1) moistened, covered, saturated, etc., with water or some other liquid


Более того, возникают и иные вопросы: можно ли его логические построения называть продуктом "разума"?)

(Ответить) (Ветвь дискуссии)

Re: мокрота/wetness свойство массы молекул воды
[info]ivanov_petrov@lj
2010-08-28 03:26 (ссылка)
"Использование частицы "не" имеет несколько нюансов:

1. Затрудняется восприятие фразы. На осмысление фразы, содержащей эту частицу требуется больше времени, чем на фразу, сказанную позитивно.
В головном мозгу существуют области, отвечающие за аналоговую, чувственную обработку информации и области, которые занимаются логической обработкой информации - анализируют, сортируют, классифицируют. Чтобы представить себе "не зеленый" цвет требуются дополнительные, качественно иные действия мозга, чем для представления просто синего цвета. Первый случай требует активности обоих участков - необходимо произвести выбор цвета, проверить его на принадлежность к диапазону зеленого цвета.
2. Эта частица может существенно лишать фразу информативности, будучи использованной с частями речи у которых нет очевидных антонимов. Предложение "Я не делал ему гадостей" дает ничтожно мало информации о взаимоотношениях людей. Гораздо меньше, чем "Я был лоялен по отношению к нему". А антонимов нет у многих слов. Нет антонимов у числительных (двадцать, четверо), у некоторых существительных, прилагательных, глаголов. Например у слов шкаф, дорога, петля, кукурузный, деревянный, обернуться, кувыркаться. Поэтому Сергей Горин ("А вы пробовали гипноз?") несколько лукавил, когда говорил, что все может сказать в позитиве, только к слову "некурящий" затрудняется подобрать синоним без "не". Как бы он сказал "не ревнивый"?
3. Элемент многозначности может присутствовать, даже когда частица "не" используется в сочетании со словом имеющим традиционный антоним. Например фраза "не веселый" может восприниматься как "грустный", а может так же мало говорить о состоянии человека как и описание "не зеленый" говорит о цвете предмета.
4. Просьбы, построенные с использованием частицы "не" обычно выполняются с точностью "до наоборот", особенно детьми... "
http://www.psihonto.ru/article/61.htm

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: мокрота/wetness свойство массы молекул воды
[info]berest@lj
2010-08-28 06:15 (ссылка)
Не понял) Не могли бы вы пояснить, при чём здесь частица "не"?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 06:31 (ссылка)
Ну, Вы спросили "что с ним не так".

Я позволил себе немного пошутить, извините, пожалуйста. Я не придумал, что всерьез отвечать - Вы ведь спросили про человека, можно ли его логические построения считать разумными. Это такое завуалированное оскорбление. Дело привычное, но к чему вы хотите, чтобы я на это реагировал всерьез?

(Ответить) (Уровень выше)


[info]gineer@lj
2010-08-28 03:20 (ссылка)
\\ Искусственный разум строится вовсе не снаружи, в лабораториях, а исключительно изнутри и по собственному желанию.

Хонто.

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 03:35 (ссылка)
ありがとう

На правду не обижаются; её переделывают

(Ответить) (Уровень выше)


[info]boldachev@lj
2010-08-28 03:40 (ссылка)
Расскажу притчу по программиста, который ну очень хотел создать искусственный интеллект. И задачу он вроде сформулировал правильно - ведь для программиста не существует не решаемых задач, были бы они корректно поставлены. Так вот, задача-то элементарная: создать устройство, которое по всем своим «феноменальным проявлениям» не отличалась бы от интеллекта человека. Ну или совсем точно: чтобы не отличалась от его, программиста, интеллекта, ведь с чьим же интеллектом он может еще сравнивать как не со своим. Конец притчи, надеюсь, понятен. Программист, хот и не сразу - через много-много лет, с успехом решил поставленную задачу: написанная им программа по своим «феноменальным проявлениям» ничем не отличалась от его интеллекта. То есть, по крайней мере, он отличий не находил... Многолетний труд не пропал даром - своей интеллект он в конечном итоге подогнал под машинный. Довел до состояния тупого алгоритма. (изначально тут (http://community.livejournal.com/ru_philosophy/988322.html))

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 05:24 (ссылка)
да, конечно, сейчас даже и быстрее справляются, не за много лет - скорости-то растут.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]boldachev@lj
2010-08-28 05:36 (ссылка)
Скорости алгоритмизации мозгов? :))) Да...

Ни одному интеллектуалу (в хорошем смысле слова) не придет в голову мысль, что то, что твориться в его голове можно, а самое главное нужно моделировать. Это даже сформулировать невозможно. А что можно сформулировать - то не интеллект.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 05:49 (ссылка)
говорят - вдвое за три года. Успех.

Щедровицкий тут великий пример. Он думал, что то, что он делает - именно моделирует то, что творится в его голове (и это многим надо). Очень интересно понять, что то, что он моделировал, не было его мыслями, это - то, что он назначал своими мыслями. Эти модели всегда были моделями.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]boldachev@lj
2010-08-28 06:01 (ссылка)
Действительно, пример с методологией Щедровицкого очень показателен. Для него соответствие того, что у него было в голове, тому, что он называл моделями было однозначным. Но почему-то для многих не очевидно, что обратная схема не действует: модель не может породить свой источник. Хотя тень и отслеживает все движения тела, но по тени невозможно воссоздать движущееся тело.

(Ответить) (Уровень выше)


[info]kondybas@lj
2010-08-28 06:59 (ссылка)
Интеллектуал, которому в голову не может придти целый класс мыслей - немножко слегка ущербный интеллектуал. В плохом смысле этого слова.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]boldachev@lj
2010-08-28 07:06 (ссылка)
:)
Скорее наоборот. Человек, который не может различить, что можно помыслить (формально), а что нельзя, то есть считающий, что его мышлению доступно все, не видящий границ своего мышления - очень ограниченный (интеллектуально) человек.

И если по теме, то так: интеллектуал видящий имманентную ограниченность мышления, видящий, что истоки интеллектуальности находятся именно за этой границей, не будет рассуждать о моделировании интеллекта (разума).

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]kondybas@lj
2010-08-28 07:47 (ссылка)
Меня чрезвычайно интересует методика различения допустимого к формальному мышлению и недопустимого.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]boldachev@lj
2010-08-28 07:55 (ссылка)
На мой взгляд такой методики нет и быть не может. По простой причине: методика (по своей сути) есть уже нечто формальное, она уже и есть формальное мышление - поэтому определить границы формальной системы средствами этой же системы (изнутри) невозможно. Безусловно невозможно и определить эти границы извне, то есть иррациональными способами.

Развитие мышление и есть лавирование, скакание от туда сюда и обратно через эту границу. Так мы ее ощущаем и двигаем.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]kondybas@lj
2010-08-28 08:01 (ссылка)
Прекрасно. Я б даже возопил - превосходно!

Концептуальная невозможность существования методики прекрасно гармонирует вот с этим: "..интеллектуал видящий имманентную ограниченность мышления..". Я так понимаю, что "видение ограниченности" - это какой-то трансцендентный внечувственный и внерациональный опыт, да? Различать невозможно ни так, ни этак, но истинному интеллектуалу все до лампады, он видит - и точка?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]boldachev@lj
2010-08-28 08:20 (ссылка)
>>Я так понимаю, что "видение ограниченности" - это какой-то трансцендентный внечувственный и внерациональный опыт, да?<<
Именно так. Просто по определению - видение границы формального можно только из неформальной, иррациональной области.

>>Различать невозможно ни так, ни этак, но истинному интеллектуалу все до лампады, он видит - и точка?<<

Вы тут смешали две проблемы: (1) формальное определение этих границ (о чем вы вопрошали, ища формальную методику их фиксации) и (2) понимание самого наличия этих границ, принципиальное видение, что мир не вмещаем в эти границы (без претензий на их однозначное описание).

И если говорить об интеллекте, о разумном мышлении, то они возможны только в развитии - а развитие возможно только при понимании ограниченности мышления, путем преодоления этих границ. Рассудочное застывшее мышление является таковым, поскольку изначально полагает себя безграничным.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]kondybas@lj
2010-08-28 11:30 (ссылка)
"..видение границы формального можно только из неформальной, иррациональной области.."
Аминь. Неконструктивно, но понятно.

"..Вы тут смешали две проблемы.."
На самом деле, проблема здесь ровно одна. Если граница есть - должен быть способ к ней подойти и обозначить. Если способа нет - нет и границы.

Все это - вариация на тему парадокса о всемогуществе и камне. Если мы постулируем возможность всемогущества - мы автоматически, на сдачу, получаем парадокс. Если мы постулируем существование пределов познания, мы автоматически получаем существование метода определения этой границы - и парадокс.

Впрочем, чуть ниже вы пишете, что ограниченность мышления сопровождается преодолением ограниченности, и тут я совсем потерялся. Получается, что границы есть, но они, как бы, и не границы совсем, и вполне преодолимы? Взаимоисключающие параграфы, вам не кажется?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]boldachev@lj
2010-08-28 11:50 (ссылка)
>>что ограниченность мышления сопровождается преодолением ограниченности, и тут я совсем потерялся. Получается, что границы есть, но они, как бы, и не границы совсем, и вполне преодолимы? Взаимоисключающие параграфы, вам не кажется?<<

Очень странные рассуждения... На то они и границы, чтобы их можно было смещать, преодолевать, переступать. Развитие - всегда и только есть преодоление, расширение границ познаваемой области.

Вы в своем полемическом задоре немного увлеклись.

Спасибо.
Успехов.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]kondybas@lj
2010-08-28 11:51 (ссылка)
"..На то они и границы, чтобы их можно было смещать, преодолевать, переступать.."
Хо-хо...

И вам успехов.

(Ответить) (Уровень выше)


[info]zh3l@lj
2010-08-28 04:11 (ссылка)
Image (http://picasaweb.google.de/lh/photo/yfDx5C1TwGWuKIt6xx4aXw?feat=embedwebsite)Von Zeichnungen (http://picasaweb.google.de/JuraRom/Zeichnungen?feat=embedwebsite)

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 04:27 (ссылка)
Уууу...

(Ответить) (Уровень выше)


[info]andrey_larin@lj
2010-08-28 04:26 (ссылка)
Мне кажется аналог человеческого ИИ невозможен без таких базовых вещей как рефлексы, двигательная память, всех органов чувств ( таких труднореализуемых обоняние, проприоцепция) и самое главное развития среди человеческого общества во всех стадиях начиная от грудного ребенка. Именно это дает нам возможность понимать себеподобных во всей гамме включая тончайшие нюансы позы, интонации и мимики. Получается, что карта растягивается до размеров территории и нужно делать биологического человека.

(Ответить)


[info]mak_sh@lj
2010-08-28 04:42 (ссылка)
если и летучая мышь, и человек думают, тогда и шахматная программа вполне себе "думает", и поисковик "думает"

Робот создан чтоб работать, а не думать.
Если думать = предсказывать, то летучая мышь вполне себе думает, а шахматная программа именно "работает".

(Ответить)


[info]helix_a@lj
2010-08-28 05:18 (ссылка)
Интересно, что сказана - но не замечена (или мне кажется?) весьма ключевая вещь - до сих пор непонятно что же именно пытаются создать все эти "специалисты по ИИ".
Создается впечатление, что ИИ - и просто И - это некое Изначальное Дао - все, о чем можно что-то "сказать" - не есть Дао (ИИ).

WBR - Andrew
P.S. А и правда - чего хотят-то? Послушных понятливых слуг? Эвристические алгоритмы? Суперсчетчики? Все это вместе?
Правильно заданный вопрос - половина ответа.

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 05:28 (ссылка)
Ежели желаете, могу произнести суждения совершенно непрофессионального человека.
ИИ - рекламка для журналистов, всерьез этим не занимаются, это такой удобный оборот, чтобы придать работе значимость. К примеру, smart-grid сети в энергетике, всего лишь вменяемое управление в больших сетях, в европе - считаются проявлением и приложением ИИ. то есть публикуясь "по ИИ", человек всего лишь сообщает сообществу, что он умеет ставить и решать задачи управления в больших энергосистемах к примеру, препятствовать возникновению аварий, чтобы автоматика отслеживала ряд показателей в сетях и сообщала, если возникнет предаварийная обстановка - и прочие такие дела, совершенно нормальные и ничуть не "умные". Таких ремесленных инженерных задач уйма, это и есть реальная область приложения ИИ. но к этому пришпандорены рекламные словеса и прочая штука для получения грантов. и это ничего страшного, все хвалятся, отчего нет. но, к сожалению, бахвалясь и подвирая, люди начинают думать не только об инженерных задачах, но и о том, как они думают - и вот тут начинается беда, поскольку человек властен изменить собственное мышление.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]109@lj
2010-08-28 05:52 (ссылка)
нет.
все интересные вопросы стоят только, когда речь идёт о

http://en.wikipedia.org/wiki/Strong_AI

специализированные AI упоминать имеет смысл тут только в контексте "а вот ещё в этой области теперь AI используют"

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 05:58 (ссылка)
"есть общая договоренность среди исследователей искусственного интеллекта в том что Сильный ИИ имеет следующие свойства: [1]

* Принятие решений, использование стратегий, решение головоломок и действия в условиях неопределенности;
* Представление знаний, включая общее представление о реальности;
* Планирование;
* Обучение;
* Общение на естественном языке;
* И объединение всех этих способностей для достижения общих целей."

И объединить навек в их земной юдоли…

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]109@lj
2010-08-28 06:12 (ссылка)
не понял, что вы хотели сказать :(

из предыдущего вашего коммента мне показалось, что ваша точка зрения заключается в том, что ни концепции strong AI нет, ни тем более работы по его созданию не ведутся.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 06:28 (ссылка)
Простите, не вовремя пошутил. Да, я хотел сказать, что ширнармассы, как мне казалось, заняты именно инженерным ИИ, который не ИИ. Вы указали, что есть настоящие работы с серьезной целью построить серьезный ИИ - Вы правы, такие есть, я временно забыл, что многие к этому относятся серьезно. Я процитировал кусочек этих серьезных вопросов, на которые можно поглядеть и решить, что же на деле сделано. Ну, не обсуждать же проблему китайской комнаты. А, к примеру, можно обсуждать успехи по созданию автоматического переводчика, или создания автоматических обзоров, или рефератов и пр.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]109@lj
2010-08-28 07:19 (ссылка)
не, вы процитировали хуйню какую-то, извините. серьёзные проекты - это, например, ЦЫЦ (http://cyc.com)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 08:02 (ссылка)
Пожалуйста, без мата. То, то я процитировал - это русский аналог той статьи вики, на которую лично Вы дали ссылку. Спасибо за очередную ссылку. Я понял, серьезные.

(Ответить) (Уровень выше)


[info]misha_makferson@lj
2010-08-29 14:18 (ссылка)
>Интересно, что сказана - но не замечена (или мне кажется?) весьма ключевая вещь - до сих пор непонятно что же именно пытаются создать все эти "специалисты по ИИ".

Специалистам по ИИ дают деньги на совершенно конкретные вещи. На автоматизацию некоторых рутинных интеллектуальных операций которые в силу их объёма людям выполнять лениво и затруднительно. Помнится обсуждали уже систему реферирования научных текстов. Проблема есть, статей выходит очень много. Людей обладающих энциклопедическим образованием которые могли бы читать и про суперструны и про особенности социальности у муравьёв и рефератики строчить не хватает (а те кто есть, мне кажется найдут себе занятие более хлебное, с энциклопедическим то образованием ). Отсюда задача переложить эту сизифов труд на компьютер. Рефераты понятно будут извиняюсь говно, но лучше так, чем никак.

(Ответить) (Уровень выше)

Обратный Ход.
[info]idvik@lj
2010-08-28 05:25 (ссылка)
<<Искусственный разум строится вовсе не снаружи, в лабораториях, а исключительно изнутри и по собственному желанию.>>>>

Это понятно и страшно, идентифицировать себя, с чем-то и так себя определять.

Но вопрос остается , для определения разума, человеку нужен некий образец, эталон Разума,
когда это-го нет, то так скажем идут не вверх, а вниз, и очень показательно,что в сторону компьютеров, а часто ведь в сторону коллективного разума.
Определяют человека, как социальное животное.

Так вот у меня, нет ответа пока как сделать, обратный ход и выстраивать понимания разума, исходя из другого образца, эталона.
То-есть я пытаюсь,это сделать, и тут у меня без символа Бога не получается, не то что он есть, а то что может осуществится.Ну вот прямо во мне, свободное творение.


(Ответить) (Ветвь дискуссии)

Re: Обратный Ход.
[info]ivanov_petrov@lj
2010-08-28 05:47 (ссылка)
Для разума человека предметов сравнения великое множество - каждый сосед, не говоря уж о великих и славных.
Нет сравнения для разума человечества. Однако тут вопрос: а существует ли у человечества разум.

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: Обратный Ход.
[info]idvik@lj
2010-08-28 07:03 (ссылка)
На вопрос есть ли разум у человечества-нет, нет разума и у социума.
Самое страшное, что я встречаю людей с искусственным интеллектом.

Мне эти разговоры про ИИ кажутся страшными -люди играют с атомной бомбой.

Что-ж я могу сделать еще один обратный ход, взять полное описание того, что понимается под искуственным интеллектом, и отвергнуть, и плясать от противного- вот это все не то.
И думать , а что же это такое разум и интеллект.
Но интересный вопрос когда я все поворачиваю себе на пользу свойство ли это моего разума
Ох пойду думать.

(Ответить) (Уровень выше)


[info]turchin@lj
2010-08-28 05:32 (ссылка)
Говорить, что ИИ невозможен, это так или иначе намекать на существование некой трансцендентной души. Возможно, скрывая ее под именем мокрости нейронных сетей. И пока мы душу не обнаружили, следует полагать, что ИИ возможен.

точн так же если говорить о невозможности искусственной жизни - это говорить о некой витальной субстванции, скрытой в клетках, которую нам не уловить.

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 05:50 (ссылка)
Нельзя, значит, так говорить? Эх, жаль какая.

(Ответить) (Уровень выше) (Ветвь дискуссии)

Чу! Исцелитесь!
[info]fandaal@lj
2010-08-29 16:13 (ссылка)
Вам - можно. Раз верите в душу и не стыдитесь этого)

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: Чу! Исцелитесь!
[info]ivanov_petrov@lj
2010-08-30 02:00 (ссылка)
Я и в ногу верю, чего уж там.

(Ответить) (Уровень выше)


[info]sergey_458@lj
2010-08-28 06:07 (ссылка)
самое интересное в ИИ, что люди хотят создать искуственно именно "разум"

в этом проявляется и крайняя наглость человеческого рода, дескать "мы настолько умны сами, что стали подобны богам и создаем разумное", в этом и крайняя слабость - "нам нужен ИИ, потому что своих мозгов не хватает"

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 06:25 (ссылка)
Ботинки уже есть.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergey_458@lj
2010-08-28 06:41 (ссылка)
наверное, а вот источника енергии нет

жгут все подряд, что бы деградировать енергию и создать тепло, потом ето тепло с неустранимыми потерями снова превратить в более менее приличную енергию

(Ответить) (Уровень выше)


[info]praeinant@lj
2010-08-28 06:35 (ссылка)

Если есть ИИ, то должен быть и некий неискусственный/натуральный/ интеллект (НИ). Натуральный интеллект создает искусственный (искусственный значит созданный некой вышестоящей? силой, а не возникший сам по себе).
Значит пока все ''околоземные'' искусственные интеллекты есть интеллекты созданные человеком (ИСЧ) и тут словосочетание ИИ есть больше литературный ''вымысел''...:)

(Ответить)


[info]_ieronim@lj
2010-08-28 07:44 (ссылка)
тест Тьюринга в слабом варианте был вполне себе пройден программой Parry — я не помню статистику, но большинство разговаривавших с ней психиатров не сумели отличить ее от реального параноика.

Шахматная программа Rybka представляет собой воплощение представлений нескольких людей о том, что такое игра в шахматы, наложенные на очень эффективный алгоритм поиска. Ее непрерывно подкручивают, допиливают, и она выносит всех оппонентов в первую очередь за счет правильной стратегии, которую человек, пусть даже понимая все используемые программой "правила", никогда не сможет всю удержать в голове.

Поисковик Яндекса уже давно использует самообучение для выбора оптимального алгоритма ранжирования.

Мне кажется, ИИ в "научно-фантастическом" понимании, мегакомпьютер, принимающий решения, касающиеся жизни людей, возможно, управляющий людьми, но при этом находящийся за пределами их понимания (ну, скажем, как в "Остряке" у Азимова или в Нейроманте у Гибсона), если и будет создан, то окажется скорее родственником вышеупомянутым системам, чем моделям групп нейронов. К самоосознанию и копированию мышления человека это все имеет слабое отношение, конечно.

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 08:04 (ссылка)
мне казалось, что всерьез тест Тьюринга не воспринимается - это игра для журналистов. но, может быть, я ошибаюсь.

тут рядом юзер 109 дает ссылки на серьезные проекты, где ИИ понимается профессионально.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]_ieronim@lj
2010-08-28 09:44 (ссылка)
Насколько я понимаю исходную статью (http://dx.doi.org/10.1093/mind/LIX.236.433) Тьюринга, он вообще не предлагал таким образом тестировать машины на разумность. Он предлагал от идеи "проверки, может ли машина мыслить" перейти к идее "провести формализованный тест в форме разговора". Как философская концепция это действительно очень удобно. Ну то есть там сложнее, но я не Тьюринг, чтобы компактно изложить его идеи :) Статья читается очень легко, очень забавна (мне особенно нравится пункт про телепатию и экстрасенсорику), но в то же время покрывает почти все вопросы, которые я тут вижу в каментах.

При этом есть энное число программ (parry просто была первой), которые могут обмануть собеседника и убедить его, что он разговаривает с человеком, и эти программы никто не называет ИИ. Но машина, способная в широкой области беседовать с человеком на естественном для него языке, на мой взгляд, гораздо ближе к "обычному" представлению об ИИ, чем модель кучки нейтронов. А задача "поддержания беседы" почти решена.

Если почитать сайт Cyc, становится понятно, что это по сути очень большая база данных, гигантский граф с возможностью быстрого поиска и задания вопросов на квазиестественном языке. А отнюдь не попытка воспроизвести сознание как кучу нейронов. Так что я не вижу противоречия тому, что я написал.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 09:49 (ссылка)
Не буду спорить. Мне интересней узнать о "почти". Видите ли, есть очень серьезная граница между поддержанием беседы и разговором. Существует множество риторических приемов и языковых игр, которые довольно формальны и могут неопределенно долго поддерживать иллюзию чего-то вроде разговора. грубо говоря - английский разговор о погоде. Думаю, не трудно написать программу, которая будет длить разговор о погоде не менее, чем воспитанный англичанин. Мне бы казалось, это вообще ничего не говорит о возможности построения ИИ.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]_ieronim@lj
2010-08-28 10:07 (ссылка)
Примеры программ, поддерживающих беседу, говорят о том, что обычная письменная речь вполне может использоваться как метод ввода для "общения" с машиной. А дальше все упирается только в сложность программы и ее базы данных :)

Доказать, что программа никогда не станет достаточно сложна и велика, чтобы разговор с ней стал интересен, весьма затруднительно. Я, например, надеюсь при жизни увидеть электронных консультантов на заседаниях, скажем, советов директоров крупных фирм — или хотя бы услышать о таких. Да, к ним будет по-прежнему применим аргумент китайской комнаты, но какая разница?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 10:15 (ссылка)
Нет, я не о доказательстве - это совсем другой разговор, и довольно странный. Так как никто не доказал, что ангелов на игле 104, то следует считать верным ранее принятое число 102. Общение с машиной на естественном языке - да, я немного (и только внешне, разумеется) представляю такие программы. но это не то. Я бы ожидал, что вы скажете, когда появятся вменяемые переводчики, авто референты и прочая такая штука. Прочее же - на мой взгляд, смысловые уловки, которые позволяют не говорить на заданную тему.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]_ieronim@lj
2010-08-28 10:45 (ссылка)
Я не работаю в этой области, поэтому мне довольно сложно делать подобные предсказания :) С доказательством вопрос отнюдь не странный и не праздный, потому что человеческий мозг работает совсем иначе, чем компьютер, и доказать, что точно воспроизвести поведение человека (или даже амебы) как организма невозможно, даже если построить компьютер размером с Юпитер, достаточно просто. Для этого нужен молекулярно-динамический расчет на уровне coupled cluster — несколько суток для расчета одной точки для одной молекулы аммиака на современном железе, и растущий по сложности в зависимости от объема системы быстрее, чем четвертая степень.

Прогресс автопереводчиков достаточно силен - плохо знающие язык люди переводят значительно хуже, чем Google Translate, как показывает опыт моей работы с некоторыми соавторами :) Мне кажется, что автопереводчики - это плохой пример, они только за счет количественных улучшений через 20 лет будут весьма и весьма вменяемыми.

Автореферент - более сложный вопрос, но спам уже сейчас программы фильтруют хорошо, и деление документов на "важные" и "неважные" в автоматическом режиме вполне можно себе представить.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 10:50 (ссылка)
Да, не получается. Ну что же.

(Ответить) (Уровень выше)


[info]praeinant@lj
2010-08-29 05:37 (ссылка)
С доказательством вопрос отнюдь не странный и не праздный, потому что человеческий мозг работает совсем иначе, чем компьютер, и доказать, что точно воспроизвести поведение человека (или даже амебы) как организма невозможно, даже если построить компьютер размером с Юпитер, достаточно просто. Для этого нужен молекулярно-динамический расчет на уровне coupled cluster — несколько суток для расчета одной точки для одной молекулы аммиака на современном железе, и растущий по сложности в зависимости от объема системы быстрее, чем четвертая степень.

И это к какому базисному выводу ведет? Что у ''амебы'' и т.д. есть ''компьютер качественно лучшего порядка'' или суть в ''качественно лучшем программном обеспечении''...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]_ieronim@lj
2010-08-29 08:10 (ссылка)
Ни то, ни другое. Просто уравнение Шредингера для более чем одного электрона не имеет решения в аналитическом виде, а с хорошими приближенными решениями тоже засада — их считать долго. Поскольку жизнь клетки представляет собой исключительно сложную совокупность весьма разнообразных химических реакций, механический подход для описания ее жизни неприемлем.

Клетка как целое представляет собой качественно более сложную систему, чем те, которые мы умеем описывать точно. В отличие от, например, индивидуальных молекул, кристаллов, сплавов, растворов.

Но вполне возможно, что еще появятся хорошие модели клетки как целого, позволяющие рассчитать, скажем, ее реакцию на неизвестный препарат. Из таких моделек можно будет построить неплохую модель мозга :)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]praeinant@lj
2010-08-29 09:15 (ссылка)
Ни то, ни другое. Просто уравнение Шредингера для более чем одного электрона не имеет решения в аналитическом виде, а с хорошими приближенными решениями тоже засада — их считать долго.

Ну, аналитика по моему несколько больше чем уравнение Шредингера... и откуда такая вера, что аналитика должна начаться от уровня электронов...

Поскольку жизнь клетки представляет собой исключительно сложную совокупность весьма разнообразных химических реакций, механический подход для описания ее жизни неприемлем.

А Вы можете обосновать почему механический подход для описания ее жизни неприемлем. По моему даже очень приемлем и неизбежен (если рассматривать жизнь клетки как процесс), только если механику рассматривать в более широком плане нежели угадывается из ваших уст..

Но вполне возможно, что еще появятся хорошие модели клетки как целого, позволяющие рассчитать, скажем, ее реакцию на неизвестный препарат. Из таких моделек можно будет построить неплохую модель мозга :)

Из этих слов мне создается впечатление, что клетка есть мозг в миниатюре... но, по моему, и аналитика, и ''механика'' этому препятствует... (рядом с железом/мозгом есть и программное/разум...)...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]_ieronim@lj
2010-08-29 09:41 (ссылка)
Я имел в виду в данном случае всего лишь метод молекулярной механики (шарики-пружинки плюс кулоновские плюс вандерваальсовы силы), который пригоден для расчета очень больших систем, но пасует при описании химических реакций.

Уйдя от уровня электронов "выше", вы утратите способность описывать химические реакции. А химически те же нейроны в мозгу взаимодействуют не в меньшей степени, чем электрически.

Клетка - не мозг. Но без клеток мозга не было бы :)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]praeinant@lj
2010-08-29 15:44 (ссылка)
По моему это зацикливание непостредсвенно на мозгу, разум/интеллект нечто больше чем ограника мозга...
А может клетка, при работе интеллекта ,отвечает только за инженерный аспект... и вы преувеличиваете значение инженерного нюанса в познании всего спектра интеллекта и к познанию его есть не только этот один путь...
По моему общая ''механика'' намного информативнее... разум не обязательно должен быть одноцентричная/клеткоценричная система, намного больше шансов что разум многоцентричная система...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]praeinant@lj
2010-08-30 02:20 (ссылка)

(Ответить) (Уровень выше)


[info]misha_makferson@lj
2010-08-30 03:26 (ссылка)
По видимому надо вводить разделение искусственный псевдоинтеллект (экспертная система это не интеллект) и истинный ИИ. :-))

(Ответить) (Уровень выше)


[info]rednyrg721@lj
2010-08-29 16:23 (ссылка)
Интересно, подходили ли к тесту Тьюринга с противоположной стороны — то есть, разрабатывали ли стратегию для выявления потенциального АИ путем задавания хитропридуманных вопросов. Что-то вроде http://en.wikipedia.org/wiki/Voight-Kampff_machine, но на лингвистическом уровне. Мне как-то не попадалось подобное.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-30 02:01 (ссылка)
к сожалению, не знаю

(Ответить) (Уровень выше)


[info]kouzdra@lj
2010-08-28 08:15 (ссылка)
ИИ нужен, искусственный разум нет (естественный то некуда девать)

Да почему же? Для игрушек будет самое то, для придания реализьму и живости.

(Ответить)


[info]maxalex@lj
2010-08-28 09:40 (ссылка)
почему-то не вижу ни одного уопминания "итайской комнаты" в посте и комментах

(Ответить) (Ветвь дискуссии)


[info]maxalex@lj
2010-08-28 09:41 (ссылка)
http://ru.wikipedia.org/wiki/%D0%9A%D0%B8%D1%82%D0%B0%D0%B9%D1%81%D0%BA%D0%B0%D1%8F_%D0%BA%D0%BE%D0%BC%D0%BD%D0%B0%D1%82%D0%B0
собственно вот

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 09:44 (ссылка)
109 дал ссылку на англ вики, там с этого начинается

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ma79@lj
2010-08-28 09:45 (ссылка)
а,ясно, значит я не доглядел

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-28 09:51 (ссылка)
кажется - я не уверен, что понимаю, там очень много чего говорили - это все про тест Тьюринга. Надо сказать, мне всегда казался этот тест не более чем игрой - смысла в нем мало - так что судьба его, опровержение или подтверждение, меня не очень интересуют.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ma79@lj
2010-08-28 09:58 (ссылка)
да я вообще лошара, я счастоько виджу что про Серля в посте много, просто словосочетание КК не упомянуто
ну да, я в общем-то и не спорил а хотел блеснуть поп-эрудицией чтобы поддержать вашу мысль

(Ответить) (Уровень выше)


[info]fregimus@lj
2010-08-28 20:57 (ссылка)
Это что-то вроде ста чукчанских слов для снега — мем дурацкий, но устойчивый.

(Ответить) (Уровень выше)


[info]petsen@lj
2010-08-29 01:47 (ссылка)
Я так смотрю, Google Translate Вам не по нраву :)
А почему переводчик и реферирование -- это сильный вариант ИИ? Мне казалось, это гораздо более простые штуки, по кр. мере, в рамках нереволюционных технологий.

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-29 02:13 (ссылка)
нет, не по нраву.

Ну, какой-то переводчик - дело нехитрое, вот он и есть. Но это же фикция. А нормальный переводчик - такого нет еще.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]petsen@lj
2010-08-29 02:24 (ссылка)
Хороший вопрос, кстати. будет ли кто-то делать совсем нормальный переводчик, при нынешней популярности Translation Memory и статистических методов. Коммерческая задача может и исчерпаться, а Трауберг с Лунгиной все равно никто и не возьмется моделировать.

(Ответить) (Уровень выше)


[info]misha_makferson@lj
2010-08-29 14:33 (ссылка)
Поставим вопрос по другому. А модель муравейника построить можно? Там явно наблюдается некая коллективная целесообразная деятельность хотя каждый отдельно взятый муравей не очень умен.

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-29 14:38 (ссылка)
Я не уверен, что понимаю вопрос. Да, нечто о муравейнике, конечно, можно понять, и можно это знание изложить, отчего нет. Про "коллективную целесообразную..."- не знаю, что имеется в виду. Пожалуй/ на всякий случай стоит сказать так6 муравейник не умнее муравья, хотя "ум" тут не более чем метафора.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]misha_makferson@lj
2010-08-30 03:21 (ссылка)
Да я и сам собственно не могу мысль оформить. Ну приблизительно, "интеллект" муравья мы возпроизвести можем, не много там "интеллекту". Продолжая эту цепочку на чем сломаемся на млекопитающих, на приматах

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-30 05:56 (ссылка)
_приблизительно, "интеллект" муравья мы возпроизвести можем, не много там "интеллекту"_
это только кажется

Просто мы знаем, что поведение женщины - ну очень сложное, и многие мужчины с умным видом лет в сорок начинают говорить, что женщины - инопланетянки и не дано их понять. Дело в знании и заинтересованности - муравей малоизвестен и не интересен, но чужд неизмеримо более. То есть в муравье мало интеллекту" - означает не более, чем "бабы дуры". Всего лишь указание на то, что говорящий не знает, о чем говорит

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]mfi@lj
2010-08-31 14:25 (ссылка)
Дык где ж он у них там сидит? Вы сами говорили, что у них внутре неонка в ганглиях там всего то с миллион нейронов - а нейрон и его связи давно эмулируются пригоршней (100-1000) транзисторов.
(в интеловских процессорах под два миллиарда транзисторов, работающих в двадцать тысяч раз быстрее органики)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-31 14:35 (ссылка)
Видите ли, это вопрос совершенно иной. То есть у них высокий интеллект; у одной особи - тоже высокий интеллект; некие люди говорят. что они могут моделировать нейроны и там "все просто" и этих нейронов "мало" - вывод прост: люди ошибаются. Посмотрите внимательно, где же расположена огромного размера чушь. которую почему-то не видят.

(Ответить) (Уровень выше)


[info]falcon_peregrin@lj
2010-08-30 11:01 (ссылка)
Лекции Черниговской вы наверняка читали :) Она много рассуждает в том числе про ИИ:

"У плода человека нейроны образуются со скоростью 500 тысяч в минуту, соответственно 30 миллионов в час, 720 миллионов в день, 5 миллиардов в неделю и т.д. Это, я думаю, надо детям рассказывать в школах, когда о вреде аборта рассказывают, попугать. Нейроны очень разные, в том числе они и выглядят по-разному. Портреты их не обязательно такие, как я показала. У одного нейрона может быть до сорока тысяч соединений с другими нейронами. Потому что наша сеть работает вот как – они друг за друга цепляются – и вот это то, что и есть мозг. Если мы умножим, я умножать не умею, но другие люди умножили, то получим более одного квадриллиона синапсов в коре головного мозга. Как мне сказал знакомый астроном, количество нейронных связей в мозгу больше, чем звезд во Вселенной, а после этого астронома физик знакомый сказал: «Не звезд во Вселенной, а частиц во Вселенной». Частиц! Это же ужас.

Вот такое дикое количество наполняет эту нейронную сеть, которая за нас думает, я бы сказала. Встает вопрос, можно ли это моделировать, и все эти системы искусственного интеллекта, которые становятся все сложнее и сложнее, супер-компьютеры, которые японцы выделывают. И каждые три месяца их мощность и скорость удваивается. Понятно, с какой скоростью движется этот страшный прогресс. Оно вообще к чему-то приводит? Потому что разница в скоростях между тем, что умеют мощные современные компьютеры и что умеет наш мозг, несмотря на все, что я описала, измеряется миллионами раз. Т.е. компьютеры быстрее, чем наш мозг, в миллионы раз. Эту игру мы проиграли, а толку? А толку нет. Потому что несопоставимо более мощная машина человеческий мозг. Как это происходит, почему, собственно говоря, это происходит? Есть несколько точек зрения, одна из них: «Все нейроны и синапсы действуют одновременно». Т.е. параллельно очень много процессов идет, в то время как компьютеры, в основном, имеют один или несколько процессоров. Как бы это другое дело. В итоге, как говорят те, кто такими вещами занят, что хотя прямое измерение скоростей не в нашу пользу, но, на самом деле, получается, что мы чуть ли не в сто тысяч раз (хотя, честно говоря, я не знаю, как это можно измерить, ну предположим) эффективнее и быстрее, чем компьютеры. Но есть еще другие люди, я имею в виду, специалисты, которые говорят еще более экзотическую вещь. Они говорят, что там вообще какая-то другая математика на самом деле происходит. Вероятно, все эти наши счеты, это вообще не про то, что там. Есть идея, например, что мозг организован по голографическому принципу, что каждая точка - она же и целое. К этому скептически относятся многие, и вообще это как бы досужие разговоры. Но то, что там может быть какая-то другая математика, вот это, надо сказать, очень опасная дорога. Потому что я не раз уже в разных аудиториях говорила, не откажу себе в удовольствии и вам еще рассказать. "

Ну и много чего другого интересного
http://www.polit.ru/lectures/2009/11/24/brain.html
http://www.polit.ru/lectures/2008/12/24/langmind.html

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-30 11:10 (ссылка)
У нее, кажется, нелады бывают с арифметикой и здравым смыслом по причине высокой эмоциональной насыщенности. Насчет частиц во вселенной. Легко сообразить, что нейроны и нейронные связи состоят из крайне большого количества частиц каждая и входят во вселенную.

Это очень неудачное место в ее лекции.

Количественные возражения против моделирования - довольно скучные. Против мажорирования "ах, там всего так много" - следует мажорирование "а наши машины считают все быстрее".

(Ответить) (Уровень выше)


[info]indra_uolles@lj
2010-08-31 11:06 (ссылка)
Мне кажется, стоит почитать книжку Солсо "Когнитивная психология". После нее все становится понятным про применение и перспективы ИИ)

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2010-08-31 11:08 (ссылка)
спасибо

(Ответить) (Уровень выше)