cema - По поводу теста Тьюринга [entries|archive|friends|userinfo]
cema

[ userinfo | ljr userinfo ]
[ archive | journal archive ]

По поводу теста Тьюринга [Oct. 21st, 2008|11:49 pm]
Previous Entry Add to Memories Tell A Friend Next Entry
Тьюринг придумал: чтобы проверить, достигла ли машина высокого уровня интеллекта, надо, чтобы человек не мог угадать, с машиной он беседует или с человеком (ну, по переписке или ещё как).

А я думаю, правильнее наоборот: чтобы машина могла угадать, с человеком она беседует или с другой машиной. Вот когда она сможет такое надёжно делать, это и будет искусственный интеллект. Почище натурального!
LinkLeave a comment

Comments:
[User Picture]
From:[info]amigofriend@lj
Date:October 21st, 2008 - 11:10 pm

(Link)
А если угадает - получит конфетку!
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 07:53 am
(Link)
Не всегда понятно, как проверить, угадала ли.
[User Picture]
From:[info]solomon2@lj
Date:October 21st, 2008 - 11:16 pm
(Link)
Это элементарно, Ватсон. Машина с машиной всегда договорится.
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 07:53 am
(Link)
Да, но о каком результате?
[User Picture]
From:[info]ak_47@lj
Date:October 22nd, 2008 - 03:10 pm
(Link)
42, вестимо!
:)
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 05:14 pm
(Link)
Это ответ, но на какой вопрос?
[User Picture]
From:[info]ak_47@lj
Date:October 23rd, 2008 - 12:34 am
(Link)
Вопрос знают только те, кто прошёл тест на искусственный интеллект.
[User Picture]
From:[info]cema@lj
Date:October 23rd, 2008 - 01:02 am
(Link)
Или те, кто его составлял?
[User Picture]
From:[info]ak_47@lj
Date:October 23rd, 2008 - 02:06 am
(Link)
Неужели Тьюринг!? о_0
[User Picture]
From:[info]cema@lj
Date:October 23rd, 2008 - 08:14 am
(Link)
Жаль, что он ни с кем не поделился.
From:[info]ko_chu@lj
Date:October 21st, 2008 - 11:32 pm
(Link)
и дополннительные очки, если заставит человека думать, что машина на самом деле он.
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 07:54 am
(Link)
В каком-то смысле это так и есть.
[User Picture]
From:[info]gingema@lj
Date:October 21st, 2008 - 11:40 pm
(Link)
Я вчера с теткой в банковском чате говорила. например, написала ей - "Hey, other companies use more complicated robots on their web sites!" Но она меня уверяла, что она human. Даже пошутила в конце.
[User Picture]
From:[info]ctapnep@lj
Date:October 21st, 2008 - 11:53 pm
(Link)
Это ты к тому, что ты не прошла тест Сёмы? :) Не смогла отличить машину от человека.

Проблема в том, что большинство народу на таких работах я и при личной встрече не отличу от простенького калькулятора. Мозгов там просто нет.
[User Picture]
From:[info]cema@lj
Date:October 23rd, 2008 - 01:07 am
(Link)
Да-да, можно ли отличить человека от Сёмы?
[User Picture]
From:[info]ctapnep@lj
Date:October 23rd, 2008 - 01:11 am
(Link)
Хммм... я вот думаю, какой ответ должен быть тебе более приятным? С одной стороны ты весьма уникален и отличить тебя от другого человека не сложно. С другой, на калькулятор ты не похож :)
[User Picture]
From:[info]cema@lj
Date:October 23rd, 2008 - 01:15 am
(Link)
Приятен не сам ответ, а рассуждения!
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 07:54 am
(Link)
Даже пошутила в конце.

A stump joke? :-)
From:[info]chinoock@lj
Date:October 22nd, 2008 - 12:17 am
(Link)
Это достаточно хорошо реализовано в поисковых машинах. Бывают и ошибки - google как-то забанил один из блогов своих сотрудников, посчитав его сплогом.
[User Picture]
From:[info]a_p@lj
Date:October 22nd, 2008 - 02:40 am
(Link)
Простые машины (калькуляторы) этот тесть пройдут. На самом деле нужно не заменить тест Тьюринга на тест [info]cema@lj, а ввести двухступенчатый тест Тьюринга-[info]cema@lj: машина должна отличить человека от машины, прошедшей тест Тьюринга. Вот тогда - получится точно почище.
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 07:57 am
(Link)
Надо ещё, чтобы сперва и человек прошёл тест Тьюринга, а то кто его знает.
[User Picture]
From:[info]a_p@lj
Date:October 22nd, 2008 - 08:21 am
(Link)
да, причём не с какой попало машиной, а непременно чтобы она тоже прошла тест Тьюринга. А то ишь!
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 08:45 am
(Link)
Кажется, намечается рекурсия.

А откуда мы знаем, что человек разумен?
[User Picture]
From:[info]a_p@lj
Date:October 22nd, 2008 - 09:27 am
(Link)
так по рекурсии же! Творец разумен по определению, человек - по образу и подобию, ну и т.д.
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 01:51 pm
(Link)
Кстати, откуда следует, что творец разумен?

И даже если он разумен, то при взятии подобия это свойство может потеряться.
[User Picture]
From:[info]a_p@lj
Date:October 22nd, 2008 - 02:29 pm
(Link)
про неразумность творца в голову не приходило. тогда уж надо обсуждать, что такое разум и т.п. (вообще - трудно быть математиком :)
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 02:37 pm
(Link)
Теперь ещё надо обсудить, что значит быть математиком, и чем это отличается от (1) работать математиком и (2) получить образование по специальности "математика".
[User Picture]
From:[info]a_p@lj
Date:October 22nd, 2008 - 02:58 pm
(Link)
тогда уж прямо начнём со что означает "быть".
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 05:14 pm
(Link)
Или что означает "означает".

Предлагаю начать с разных концов и встретиться посередине!
[User Picture]
From:[info]ctapnep@lj
Date:October 23rd, 2008 - 01:12 am
(Link)
и немедленно выпить!
[User Picture]
From:[info]cema@lj
Date:October 23rd, 2008 - 01:15 am
(Link)
Кайф в том, чтобы выпить медленно.
[User Picture]
From:[info]ctapnep@lj
Date:October 23rd, 2008 - 01:17 am
(Link)
Ах вот чем ты занимаешься в 2 часа ночи... меденно пьешь....
[User Picture]
From:[info]cema@lj
Date:October 23rd, 2008 - 01:25 am
(Link)
Куда торопиться?
[User Picture]
From:[info]a_p@lj
Date:October 23rd, 2008 - 02:13 am
(Link)
да. А ещё я придумал расширение: тест Т+: отличить, мужчина общается с машиной, или женщина.
[User Picture]
From:[info]cema@lj
Date:October 23rd, 2008 - 08:20 am
(Link)
Ой, некоторые и сами не знают, кто они.
[User Picture]
From:[info]a_p@lj
Date:October 23rd, 2008 - 09:30 am
(Link)
открывается новое применение для ИИ!
[User Picture]
From:[info]cema@lj
Date:October 23rd, 2008 - 11:33 am
(Link)
Верно, верно. Бежим за грантами?
[User Picture]
From:[info]a_p@lj
Date:October 23rd, 2008 - 02:41 pm
(Link)
начинаем подбираться к самой сути обсуждения.
[User Picture]
From:[info]cema@lj
Date:October 23rd, 2008 - 03:40 pm
(Link)
Назад! Тут мины!
[User Picture]
From:[info]a_p@lj
Date:October 23rd, 2008 - 04:03 pm
(Link)
ну хорошо. личный рекорд длины ветки в ЖЖ я уже вроде, поставил.
[User Picture]
From:[info]cema@lj
Date:October 23rd, 2008 - 05:46 pm
(Link)
А я нет, у меня было 600.
[User Picture]
From:[info]a_p@lj
Date:October 23rd, 2008 - 05:54 pm
(Link)
сила!
[User Picture]
From:[info]cema@lj
Date:October 24th, 2008 - 12:42 am
(Link)
Дык.
[User Picture]
From:[info]3d_object@lj
Date:October 22nd, 2008 - 03:05 am
(Link)
Этот тест давно пройден. Ваш компьютер не отличает вас от другого компьютера, ему это просто не приходит в его медную голову.
[User Picture]
From:[info]dgri@lj
Date:October 22nd, 2008 - 03:12 am
(Link)
Годы в 70-е был советская научпоп-короткометражка на эту тему.
Там изображениям двух собеседников (один из них - реальный человек, а другое изображение синтезировано машиной) люди задавали разные вопросы. В конце концов перешли к проблемам творчества, этики и смысла жизни, на каковом этапе у одного из собеседников произошёл сбой, и он признался, что является машиной.
Эксперимент был прекращён, после чего техники-наладчики выяснили, что сбой произошёл у человека, который закрылся в шкафу и повторяет "Я машина, я машина!". Машина же сообщила руководителю проекта: "Я поняла, что машина по-настоящему мыслить всё-таки не может".

Один из диалогов в этом фильме был такой:
- Может ли машина быть умнее человека?
- Есть такие люди, что их и мясорубка умнее...
[User Picture]
From:[info]chaource@lj
Date:October 22nd, 2008 - 03:52 am
(Link)
There is something called CAPTCHA. This is an attempt to check that the web user is human. Pretty successful.
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 07:56 am
(Link)
Recaptcha is more successful, btw.
[User Picture]
From:[info]dennett@lj
Date:October 22nd, 2008 - 08:06 am
(Link)
Идея интересная. Но мне кажется, довольно легко создать машину, которая будет отличать человека от машины. Статистические методы, детекторы лжи, бла-бла-бла.
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 08:16 am
(Link)
Думаю, смотря в каком контексте.
[User Picture]
From:[info]dennett@lj
Date:October 22nd, 2008 - 08:22 am
(Link)
А придумайте контекст, в котором не может.

Интересно, что если есть машина, которая может отличить человека от машины, то это означает, что есть явные критерии, при помощи которых она это можно сделать - а это, в свою очередь, означает, что эти критерии можно подделать.
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 08:46 am
(Link)
Пусть машина думает, у неё голова большая.

Не обязательно критерии. Во всяком случае, необязательно вербализуемые.
[User Picture]
From:[info]dennett@lj
Date:October 22nd, 2008 - 08:48 am
(Link)
мне казалось, что из определения машины вытекает явность критериев.
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 01:50 pm
(Link)
Не обязательно. Например, у нейронной сети критерии, как правило, неявные.
[User Picture]
From:[info]dennett@lj
Date:October 22nd, 2008 - 06:53 pm
(Link)
И их нельзя просчитать в явном виде?
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 08:00 pm
(Link)
Насколько я понимаю, как правило, нет.
[User Picture]
From:[info]ctapnep@lj
Date:October 23rd, 2008 - 01:17 am
(Link)
Зависит от того, чем занимается машина. Если машина старается доказать, что она машина, то определить не проблема. Если-же машина старается казаться человеком, то определить это очень сложно. Статистические методы только покажут вероятность, но не дадут точьного ответа. Они не работают на одном экземпляре. Эмулировать-же среднестатистического человека весьма несложно. У него запас слов сотни полторы.
[User Picture]
From:[info]dennett@lj
Date:October 23rd, 2008 - 07:39 am
(Link)
А как вы относитесь к изначальному предложению - тестом тьюринга считать не способность обмануть человека, а способность различить обман машины
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 08:24 am
(Link)
They should have used robot organizers, not humans!
From:[info]lemekh@lj
Date:October 22nd, 2008 - 06:35 pm
(Link)
По моему это одно и то же.
Дело не в том кто кого. А в том, существует стратегия или не существует.
[User Picture]
From:[info]cema@lj
Date:October 22nd, 2008 - 07:59 pm
(Link)
Допустим, она существует. Что из этого следует?
From:[info]lemekh@lj
Date:October 23rd, 2008 - 01:41 am
(Link)
Вопрос, который решает Тьюринг, такой: есть ли у человека некое свойство (хвостик, называемый душа, или как хотите по-другому), который принципиально отличает человека от машины (ключевое слово - "принципиально"). Если есть, тогда какую умную машину вы бы ни сделали - она не сможет быть человеком.
Но если есть такое "свойство", то его и надо использовать для разпознавания. И стратегия должна быть направлена на выявление этого принципиального хвостика. Поэтому ищите этот "хвостик". Если не можете найти, то никакой "души" нет, и человек является машиной (очень сложной, но машиной). А если стратегия существует и "хвостик" можно найти, значит можно пытаться писать программу.
[User Picture]
From:[info]cema@lj
Date:October 23rd, 2008 - 08:23 am
(Link)
Но откуда следует, что достаточно высоко организованная машина не станет обладать душой?
From:[info]lemekh@lj
Date:October 23rd, 2008 - 10:38 am
(Link)
По определению: "Душа - нечто такое, что может быть только у человека и не может быть у машины." Лично я считаю, что ничего такого нет, и принципиально все можно смоделировать: машина будет испытывать и болевые ощущения, и вообще эмоции, и рефлексию и пр. Ну в общем, человек тоже машина и не больше. Но многие люди считают, что сложность такого моделирования нарастает настолько, что оно становиться принципиально невыполнимым. Я там написал, что ключевое слово "принципиально". Вообще говоря, сложность не означает "принципиальной невыполнимости". Но тут есть некий вопрос...(но мы уйдем далеко:))
Тьюринг предлагает: укажите это свойство, укажите это принципиальное отличие. Если оно существует, то существует и стратегия распознавания. И наоборот, если существует стратегия, значит она основана на реальном отличии.
[User Picture]
From:[info]cema@lj
Date:October 23rd, 2008 - 11:35 am
(Link)
Отличное определение. В какой-то момент прогресс может добиться таких успехов, что у человека исчезнет душа!

Тьюринг, конечно, был прав. Но тест всё-таки надо бы устраивать двусторонним, если подпустить серьёзности.
[User Picture]
From:[info]dgri@lj
Date:October 23rd, 2008 - 02:07 am
(Link)
"Окончательное решение" вопроса - нечто вроде "боевого НЛП", в результате которого люди-собеседники выходят из строя, а машины остаются невредимыми.
Когда все люди-собеседники уничтожены, задача решена.

(Сценарий для "Терминатора-(N+1)").
[User Picture]
From:[info]cema@lj
Date:October 23rd, 2008 - 08:31 am
(Link)
:-)