Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет ivanov_petrov ([info]ivanov_petrov)
@ 2008-12-25 09:07:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Реплика об искусственном интеллекте, вгорячах
http://ivanov-petrov.livejournal.com/1061033.html?thread=51150761#t51150761

Von Zeichnungen http://picasaweb.google.de/JuraRom/Zeichnungen?feat=embedwebsite
[info]termometr@lj
http://serge-le.livejournal.com/131714.html
«Чтобы удостоверить, что Вы не робот, введите, пожалуйста, цифры с картинки» - такую или подобную просьбу можно встретить в Сети повсеместно. Докажи, что ты не робот! Это просто фантастика!
Пока только в Сети человек должен доказывать свою человечность. Но пройдет еще немного времени…
Боюсь, что однажды идентификация станет не такой простой: у самого человека появятся порты и накопители, искусственные органы и модифицированные суставы, а роботы благополучно обзаведутся человеческой плотью - «human interface’ом» в самом прямом смысле этого словосочетания.
Наверное, однажды даже появятся борцы за права роботов и, возможно, кое-где машины даже придут к власти. И почему нет? Ведь они во всем надежнее человека.
Единственное, думаю, что сможет отличить человека от машины, это способность верить, надеяться и любить. Нет, конечно, на уровне поцелуйчиков и «спасигооосподи» роботы научатся безупречно эмулировать и эти чувства, но в этом-то и вопрос: как отличить муляж от истинной добродетели? Вот пришел кто-то на двух ногах в церковь и сказал, что хочет креститься, Символ веры знает, службы не пропускает, ведет себя правильно, не курит, не пьет, не извращенец – поди узнай, робот он или нет!
И эта проблема станет просто нерешаемой, если однажды машины перестанут знать, что они машины. И вот тогда уже как ты сможешь доказать самому себе, что ты - человек?

[info]ivanov_petrov@lj
да, это понятный ход. Задача Тьюринга решается очень конкретно - вот прут боты, а ты решай - банить или это человек. Или вводить капчи. а распознавание образов тоже совершенствуется. и потом будут капчи круче. А мне уже сейчас не всегда удается разобрать, что там написано, в капче. Это уже пошло соревнование снаряда и брони. И знаете, что я думаю? Это практическое опровержение столь любимого программерами и интеллектуально к ним приближенными сисадминами теста Тьюринга. Я запросто могу не различить сейчас бота от человека. За пять минут. Потом - за час. За два. И вот - тест пройден. Да он уже пройден. осталась голая правда: там робот. В нем нет никакого интеллекта, ни естественного, ни искусственного. не смешите. Это просто тупая программа, которая проходит тест Тьюринга. почему? Да у меня нет столько сил и времени. чтобы вникать. точно ли это робот. Мне легче забанить не глядя.... или не трогать, пусть коммент лежит. Я бы как раз нынешнюю ситуацию в сети считал просто эталонной: полвека бродившая байка о тесте Тьюринга для всех, у кого остался здравый смысл, получила решение: это просто не работает. Кстати. эта история с глубоким смыслом. как понятно. Тьюринг не протсо так придумал - он предложил очень в рамках современности заменить сущность - ее распознаваемым критерием. Зачем нам иллюзорные разговоры о том, что есть интеллект, душа, человек и прочая гуманитария? когда вот есть четкий критерий. Ответ такой: нет никакого критерия. Есть совершенно дурацкий триггер, который выдает четкое да-нет независимо от того, кто там находится - два робота, человек и робот, два человека... критерий не имеет отношения ни к чему, он сам по себе. И если хочется как-то жить дальше - придется общаться с сущностью.

А кто выберет критерий - ну, он сам выбрал. И получит.


(Читать комментарии) - (Добавить комментарий)


[info]lucas_v_leyden@lj
2008-12-25 05:14 (ссылка)
Здесь, мне кажется, есть еще одна тонкость – грань между человеком и роботом может сделаться не слаборазличимой, а малозначащей. Вот как мы на протяжении последних 150-200 лет наблюдаем, что характеристики индивидуума, казавшиеся принципиальными для его метаописания, делаются ничтожными. Происхождение, цвет кожи, пол (с оговорками), вероисповедание; с появлением электрических коммуникаций – возраст и гражданство (в смысле физического местонахождения), ну и т.п. Соответственно в какой-то момент, вполне возможно, искусственное или естественное происхождение собеседника, тем паче электрического, будет значить также мало, как сейчас его дворянские корни, например.

(Ответить) (Ветвь дискуссии)


[info]vidjnana@lj
2008-12-25 05:26 (ссылка)
Это в том случае, если возможности "собеседников" будут сравнимы. Тут же подтекст, мне кажется, тревожный - как вовремя остановить машины, на пути их экспансии? Вдруг роботы сделают рывок, а биомозги, даже со всеми электронными дополнениями, за ними не поспеют?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]lucas_v_leyden@lj
2008-12-25 05:28 (ссылка)
Мне кажется, что доза здорового фатализма здесь не повредит:) Если мы - тупиковая ветвь эволюции, так нечего и париться, а если нет - все как-нибудь само собой устаканится

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vidjnana@lj
2008-12-25 05:34 (ссылка)
Для нас это вопрос теоретический, потому и фатализм допустим. А вот для тех, кто будет решать его в практической плоскости, останется только один вариант - бороться до конца. "Убей робота, пока он не убил тебя!" - вот девиз будущих поколений.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]lucas_v_leyden@lj
2008-12-25 05:39 (ссылка)
...и только от общего состояния нравов на тот момент зависит, предпочтут ли они казнить невиновного или пощадить виноватого в случае возникновения сомнений... Оба пути контрпродуктивны, что любопытно, да? Если придется мочить всех подряд при любом сомнении (шиболет, Господь отличит своих и пр.), то сами будут хуже роботов, а если будут всех щадить, то быстро окажутся покорены. Не позавидуешь.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vidjnana@lj
2008-12-25 05:45 (ссылка)
Хуже роботов не станут, потому что будет принята презумпция греховности роботов. Мы ж не считаем, что хуже тараканов, когда истребляем беспощадно тараканов? А что кого-то из людей случайно замочить придётся - ну что ж, на войне - как на войне.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]lucas_v_leyden@lj
2008-12-25 05:49 (ссылка)
Ну все-таки чем антропоморфнее (хотя бы внешне) жертва, тем тяжелее ремесло палача, причем это такие древние дела - все различают существ своего вида, разум здесь не участвует. А роботы, вероятно, будут неотличимы от нас.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vidjnana@lj
2008-12-25 05:59 (ссылка)
Вот если они будут лишь по внешнему облику неотличимы, а внутри - совсем машины (как у Спилберга в "Искусственном разуме"), то тем хуже для них - просто усовершенствуют систему распознавания железяк внутри. Тем больше будут их ненавидеть - надо же, совсем как мы, под нас подделываются, железные сволочи. А прецедентов, когда убивали на основании любых, казалось бы, малозначащих черт - пруд пруди. "Толерантность"-то вовсе не повсеместно распространена, это, скорее, такая особенность некоторых культур, даже, пожалуй, одной культуры из многих.

(Ответить) (Уровень выше)

Не надо, дяденька !
[info]vlkamov@lj
2008-12-25 05:53 (ссылка)
Так сразу и "убей". Я еще пожить хочу.

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: Не надо, дяденька !
[info]vidjnana@lj
2008-12-25 05:54 (ссылка)
Что делать, жизнь такая. Кризис, опять же :))

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: Не надо, дяденька !
[info]vlkamov@lj
2008-12-25 06:20 (ссылка)
А, ну если вопрос поставлен так, то извините за взаимность.

"Заметьте, не я это предложил !"

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: Не надо, дяденька !
[info]vidjnana@lj
2008-12-25 06:24 (ссылка)
Извиняем, извиняем. Ничего личного. Более того, гуманные методы войны требуют минимизировать страдания противника при смерти. По возможности, конечно.

(Ответить) (Уровень выше)


[info]vidjnana@lj
2008-12-25 05:36 (ссылка)
Впрочем, это в том случае, если роботы действительно сделают рывок самостоятельно. А если будет происходить врастание человечества в роботов, то всё кончится мирно, как Вы и написали - перестанет людей беспокоить проблема, кто там общается. Лишь бы интересно было.

(Ответить) (Уровень выше)


[info]flaass@lj
2008-12-25 08:07 (ссылка)
> если возможности "собеседников" будут сравнимы
А среди людей какой разброс! Дык, все так и поступают: беседуют со сравнимыми, а слишком далеких объявляют "скучными занудами" или "тупым быдлом".
Если уж чего и бояться, то - как Лем: а захотят ли они с нами разговаривать?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vidjnana@lj
2008-12-25 08:13 (ссылка)
слишком далеких объявляют "скучными занудами" или "тупым быдлом".
Но при этом имеются единые правовые нормы внутри страны и сходные - в разных. И международное право. А каковы будут правовые нормы у роботов? Будут ли роботы признавать человеческие нормы права? Ведь даже индейцев, коих сначала истребляли как не имеющих души, впоследствии признали обладающими таковой.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]flaass@lj
2008-12-25 08:19 (ссылка)
О, а это почва для оптимизма :)
Понятие "авторское право" в нынешнем виде на ладан дышит, но еще брыкается. А когда пойдет Искусственный Интеллект, абсурдность его станет совсем очевидна.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vidjnana@lj
2008-12-25 08:23 (ссылка)
абсурдность его станет совсем очевидна.
Как и абсурдность наличия авторов и читателей/зрителей/слушателей. Останется одна бесплатная реклама, от которой все будут защищаться любыми мыслимыми средствами. А уж кто не спрятался - тот и потребит. :)

(Ответить) (Уровень выше)


(Читать комментарии) -