Comments: |
А если угадает - получит конфетку!
Не всегда понятно, как проверить, угадала ли.
Это элементарно, Ватсон. Машина с машиной всегда договорится.
Да, но о каком результате?
Это ответ, но на какой вопрос?
Вопрос знают только те, кто прошёл тест на искусственный интеллект.
Или те, кто его составлял?
Жаль, что он ни с кем не поделился.
и дополннительные очки, если заставит человека думать, что машина на самом деле он.
В каком-то смысле это так и есть.
Я вчера с теткой в банковском чате говорила. например, написала ей - "Hey, other companies use more complicated robots on their web sites!" Но она меня уверяла, что она human. Даже пошутила в конце.
Это ты к тому, что ты не прошла тест Сёмы? :) Не смогла отличить машину от человека.
Проблема в том, что большинство народу на таких работах я и при личной встрече не отличу от простенького калькулятора. Мозгов там просто нет.
Да-да, можно ли отличить человека от Сёмы?
Хммм... я вот думаю, какой ответ должен быть тебе более приятным? С одной стороны ты весьма уникален и отличить тебя от другого человека не сложно. С другой, на калькулятор ты не похож :)
Приятен не сам ответ, а рассуждения!
Даже пошутила в конце.
A stump joke? :-)
Это достаточно хорошо реализовано в поисковых машинах. Бывают и ошибки - google как-то забанил один из блогов своих сотрудников, посчитав его сплогом.
![[User Picture]](http://lj.rossia.org/userpic/3888/2147484756) | From: | a_p@lj |
Date: | October 22nd, 2008 - 02:40 am |
---|
| | | (Link) |
|
Простые машины (калькуляторы) этот тесть пройдут. На самом деле нужно не заменить тест Тьюринга на тест cema@lj, а ввести двухступенчатый тест Тьюринга- cema@lj: машина должна отличить человека от машины, прошедшей тест Тьюринга. Вот тогда - получится точно почище.
Надо ещё, чтобы сперва и человек прошёл тест Тьюринга, а то кто его знает.
![[User Picture]](http://lj.rossia.org/userpic/3888/2147484756) | From: | a_p@lj |
Date: | October 22nd, 2008 - 08:21 am |
---|
| | | (Link) |
|
да, причём не с какой попало машиной, а непременно чтобы она тоже прошла тест Тьюринга. А то ишь!
Кажется, намечается рекурсия.
А откуда мы знаем, что человек разумен?
![[User Picture]](http://lj.rossia.org/userpic/3888/2147484756) | From: | a_p@lj |
Date: | October 22nd, 2008 - 09:27 am |
---|
| | | (Link) |
|
так по рекурсии же! Творец разумен по определению, человек - по образу и подобию, ну и т.д.
Кстати, откуда следует, что творец разумен?
И даже если он разумен, то при взятии подобия это свойство может потеряться.
![[User Picture]](http://lj.rossia.org/userpic/3888/2147484756) | From: | a_p@lj |
Date: | October 22nd, 2008 - 02:29 pm |
---|
| | | (Link) |
|
про неразумность творца в голову не приходило. тогда уж надо обсуждать, что такое разум и т.п. (вообще - трудно быть математиком :)
Теперь ещё надо обсудить, что значит быть математиком, и чем это отличается от (1) работать математиком и (2) получить образование по специальности "математика".
![[User Picture]](http://lj.rossia.org/userpic/3888/2147484756) | From: | a_p@lj |
Date: | October 22nd, 2008 - 02:58 pm |
---|
| | | (Link) |
|
тогда уж прямо начнём со что означает "быть".
Или что означает "означает".
Предлагаю начать с разных концов и встретиться посередине!
Кайф в том, чтобы выпить медленно.
Ах вот чем ты занимаешься в 2 часа ночи... меденно пьешь....
![[User Picture]](http://lj.rossia.org/userpic/3888/2147484756) | From: | a_p@lj |
Date: | October 23rd, 2008 - 02:13 am |
---|
| | | (Link) |
|
да. А ещё я придумал расширение: тест Т+: отличить, мужчина общается с машиной, или женщина.
Ой, некоторые и сами не знают, кто они.
![[User Picture]](http://lj.rossia.org/userpic/3888/2147484756) | From: | a_p@lj |
Date: | October 23rd, 2008 - 09:30 am |
---|
| | | (Link) |
|
открывается новое применение для ИИ!
Верно, верно. Бежим за грантами?
![[User Picture]](http://lj.rossia.org/userpic/3888/2147484756) | From: | a_p@lj |
Date: | October 23rd, 2008 - 02:41 pm |
---|
| | | (Link) |
|
начинаем подбираться к самой сути обсуждения.
![[User Picture]](http://lj.rossia.org/userpic/3888/2147484756) | From: | a_p@lj |
Date: | October 23rd, 2008 - 04:03 pm |
---|
| | | (Link) |
|
ну хорошо. личный рекорд длины ветки в ЖЖ я уже вроде, поставил.
А я нет, у меня было 600.
![[User Picture]](http://lj.rossia.org/userpic/3888/2147484756) | From: | a_p@lj |
Date: | October 23rd, 2008 - 05:54 pm |
---|
| | | (Link) |
|
сила!
Этот тест давно пройден. Ваш компьютер не отличает вас от другого компьютера, ему это просто не приходит в его медную голову.
Годы в 70-е был советская научпоп-короткометражка на эту тему. Там изображениям двух собеседников (один из них - реальный человек, а другое изображение синтезировано машиной) люди задавали разные вопросы. В конце концов перешли к проблемам творчества, этики и смысла жизни, на каковом этапе у одного из собеседников произошёл сбой, и он признался, что является машиной. Эксперимент был прекращён, после чего техники-наладчики выяснили, что сбой произошёл у человека, который закрылся в шкафу и повторяет "Я машина, я машина!". Машина же сообщила руководителю проекта: "Я поняла, что машина по-настоящему мыслить всё-таки не может".
Один из диалогов в этом фильме был такой: - Может ли машина быть умнее человека? - Есть такие люди, что их и мясорубка умнее...
There is something called CAPTCHA. This is an attempt to check that the web user is human. Pretty successful.
Recaptcha is more successful, btw.
Идея интересная. Но мне кажется, довольно легко создать машину, которая будет отличать человека от машины. Статистические методы, детекторы лжи, бла-бла-бла.
Думаю, смотря в каком контексте.
А придумайте контекст, в котором не может.
Интересно, что если есть машина, которая может отличить человека от машины, то это означает, что есть явные критерии, при помощи которых она это можно сделать - а это, в свою очередь, означает, что эти критерии можно подделать.
Пусть машина думает, у неё голова большая.
Не обязательно критерии. Во всяком случае, необязательно вербализуемые.
мне казалось, что из определения машины вытекает явность критериев.
Не обязательно. Например, у нейронной сети критерии, как правило, неявные.
И их нельзя просчитать в явном виде?
Насколько я понимаю, как правило, нет.
Зависит от того, чем занимается машина. Если машина старается доказать, что она машина, то определить не проблема. Если-же машина старается казаться человеком, то определить это очень сложно. Статистические методы только покажут вероятность, но не дадут точьного ответа. Они не работают на одном экземпляре. Эмулировать-же среднестатистического человека весьма несложно. У него запас слов сотни полторы.
А как вы относитесь к изначальному предложению - тестом тьюринга считать не способность обмануть человека, а способность различить обман машины
They should have used robot organizers, not humans!
По моему это одно и то же. Дело не в том кто кого. А в том, существует стратегия или не существует.
Допустим, она существует. Что из этого следует?
Вопрос, который решает Тьюринг, такой: есть ли у человека некое свойство (хвостик, называемый душа, или как хотите по-другому), который принципиально отличает человека от машины (ключевое слово - "принципиально"). Если есть, тогда какую умную машину вы бы ни сделали - она не сможет быть человеком. Но если есть такое "свойство", то его и надо использовать для разпознавания. И стратегия должна быть направлена на выявление этого принципиального хвостика. Поэтому ищите этот "хвостик". Если не можете найти, то никакой "души" нет, и человек является машиной (очень сложной, но машиной). А если стратегия существует и "хвостик" можно найти, значит можно пытаться писать программу.
Но откуда следует, что достаточно высоко организованная машина не станет обладать душой?
По определению: "Душа - нечто такое, что может быть только у человека и не может быть у машины." Лично я считаю, что ничего такого нет, и принципиально все можно смоделировать: машина будет испытывать и болевые ощущения, и вообще эмоции, и рефлексию и пр. Ну в общем, человек тоже машина и не больше. Но многие люди считают, что сложность такого моделирования нарастает настолько, что оно становиться принципиально невыполнимым. Я там написал, что ключевое слово "принципиально". Вообще говоря, сложность не означает "принципиальной невыполнимости". Но тут есть некий вопрос...(но мы уйдем далеко:)) Тьюринг предлагает: укажите это свойство, укажите это принципиальное отличие. Если оно существует, то существует и стратегия распознавания. И наоборот, если существует стратегия, значит она основана на реальном отличии.
Отличное определение. В какой-то момент прогресс может добиться таких успехов, что у человека исчезнет душа!
Тьюринг, конечно, был прав. Но тест всё-таки надо бы устраивать двусторонним, если подпустить серьёзности.
"Окончательное решение" вопроса - нечто вроде "боевого НЛП", в результате которого люди-собеседники выходят из строя, а машины остаются невредимыми. Когда все люди-собеседники уничтожены, задача решена.
(Сценарий для "Терминатора-(N+1)"). | |