Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет ivanov_petrov ([info]ivanov_petrov)
@ 2006-12-11 07:54:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Присоединяйтесь,барон!..
http://www.veer.info/41/singular.htm
Андрей Новоселов
Технологическая сингулярность как ближайшее будущее человечества
"Итак, давайте примем в качестве рабочей гипотезы, что возможности компьютеров в ближайшем будущем превзойдут человеческие. На этом уровне совершенно не важно, будут ли они на самом деле мыслить (кстати, а вы можете сказать, что это такое - мыслить на самом деле?), поскольку результаты их работы будут такими же, как если бы они мыслили, причём быстрее и глубже, чем люди."

"На что это будет похоже с точки зрения Силы (молодой, ещё не очень далеко ушедшей за пределы человеческого понимания)?

Практическое субъективное бессмертие. Возможность быть во всех местах, куда протянута сеть. Огромное количество задач и проблем для исследования и решения - все захватывающе интересны, на все хватает времени и способностей. При необходимости всегда можно достроить себя, как программно, так и аппаратно (не будем забывать о нанотехнологиях...). В общем, это не всеведение и всемогущество, но очень близкое практическое их подобие.

А с точки зрения людей, не вошедших в состав Сил (почти наверняка будет хватать и таких, особенно на начальном этапе)? Предположим наилучший вариант - Силы не станут уничтожать человечество, а, напротив, уделят часть благосклонного внимания своим эволюционным предшественникам...

Материальное изобилие. Технологии, настолько близкие к идеальным, насколько это возможно. Чистая экология. Сверхчеловечески умное управление и планирование, учитывающее все побочные эффекты. Безопасность. "
"Зачем нам сейчас это знание возможного будущего?

Ответ прост: цель и смысл жизни. Как показывает история, человечеству не удалось найти общее универсальное оправдание своего существования. Достижения отдельных людей, религий и философских систем не сходятся друг с другом и не способны убедить сомневающихся.

Но Силы - это нечто значительно большее, чем люди. Если такая вещь, как смысл жизни, существует, и её можно обнаружить, то у Сил гораздо больше шансов добиться успеха, чем у людей. Поэтому глобальная цель нашей жизни на ближайшее время - достичь Сингулярности."

"Принципы сторонников Сингулярности
Активность
Технологичность
Сотрудничество и независимость
Неподавление"

___________________
Эту чудесную в своей simplicitas ссылку я нашел у [info]pfiksman@lj http://community.livejournal.com/anthropology_ru/116057.html

Сначала подумал, что некоторый стёб, потом подошел поближе, смотрю, - да нет, это пафос.

Искусственный Интеллект надо создать, потому что у нас нет цели в жизни, а ИИ - это достойная цель. Так и сказано. Мне - очень нравится. А Вам?


(Читать комментарии) - (Добавить комментарий)


[info]udima@lj
2006-12-11 05:35 (ссылка)
это одна страхотулина, а представьте ИИ будет на службе у спецслужб....

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2006-12-11 05:48 (ссылка)
А чего бояться? Мы честно поем свои песни и смело бьем в свои бубны.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]udima@lj
2006-12-11 05:57 (ссылка)
а вдруг у ИИ будет сбой

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2006-12-11 05:58 (ссылка)
Оставшиеся из нас будут смело бить в бубны, надеясь на лучшее.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]udima@lj
2006-12-11 06:09 (ссылка)
я сейчас еще раз прочитал сей труд-пора разрабатывать заповеди для ИИ, как для роботов. Люди уже очень близко к созданию ИИ. Еще шаг и все, ИИ проконтролировать будет нельзя, это не полоний следов не найдешь

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]andrzejn@lj
2006-12-11 06:21 (ссылка)
Уже довольно давно разрабатывают процедуру выращивания дружелюбного AI (http://en.wikipedia.org/wiki/Friendly_artificial_intelligence). Дело за малым: суметь вообще вырастить AI...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]udima@lj
2006-12-11 06:40 (ссылка)
дело не в роботах, а в принципах при разработке ИИ. И соблюдать их должны ученые, идеалистично конечно-но выхода нет. Для кого нибудь гос злодея из С. Кореи или не буду никого обижать- это супер оружие, возможность супер шантажа остального мира.
Если Вы думаете, что ИИ-это типа таого робота. как из Звездных войн, то мне кажется, это будет что-то типа комп вируса

(Ответить) (Уровень выше)


[info]timur0@lj
2006-12-11 06:06 (ссылка)
Тогда нам продолжат бить в бубны с новой силой.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]udima@lj
2006-12-11 06:12 (ссылка)
а потом ударит мороз под 40 и какие бубны будем бить???

(Ответить) (Уровень выше)


(Читать комментарии) -