Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет ivanov_petrov ([info]ivanov_petrov)
@ 2006-12-11 07:54:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Присоединяйтесь,барон!..
http://www.veer.info/41/singular.htm
Андрей Новоселов
Технологическая сингулярность как ближайшее будущее человечества
"Итак, давайте примем в качестве рабочей гипотезы, что возможности компьютеров в ближайшем будущем превзойдут человеческие. На этом уровне совершенно не важно, будут ли они на самом деле мыслить (кстати, а вы можете сказать, что это такое - мыслить на самом деле?), поскольку результаты их работы будут такими же, как если бы они мыслили, причём быстрее и глубже, чем люди."

"На что это будет похоже с точки зрения Силы (молодой, ещё не очень далеко ушедшей за пределы человеческого понимания)?

Практическое субъективное бессмертие. Возможность быть во всех местах, куда протянута сеть. Огромное количество задач и проблем для исследования и решения - все захватывающе интересны, на все хватает времени и способностей. При необходимости всегда можно достроить себя, как программно, так и аппаратно (не будем забывать о нанотехнологиях...). В общем, это не всеведение и всемогущество, но очень близкое практическое их подобие.

А с точки зрения людей, не вошедших в состав Сил (почти наверняка будет хватать и таких, особенно на начальном этапе)? Предположим наилучший вариант - Силы не станут уничтожать человечество, а, напротив, уделят часть благосклонного внимания своим эволюционным предшественникам...

Материальное изобилие. Технологии, настолько близкие к идеальным, насколько это возможно. Чистая экология. Сверхчеловечески умное управление и планирование, учитывающее все побочные эффекты. Безопасность. "
"Зачем нам сейчас это знание возможного будущего?

Ответ прост: цель и смысл жизни. Как показывает история, человечеству не удалось найти общее универсальное оправдание своего существования. Достижения отдельных людей, религий и философских систем не сходятся друг с другом и не способны убедить сомневающихся.

Но Силы - это нечто значительно большее, чем люди. Если такая вещь, как смысл жизни, существует, и её можно обнаружить, то у Сил гораздо больше шансов добиться успеха, чем у людей. Поэтому глобальная цель нашей жизни на ближайшее время - достичь Сингулярности."

"Принципы сторонников Сингулярности
Активность
Технологичность
Сотрудничество и независимость
Неподавление"

___________________
Эту чудесную в своей simplicitas ссылку я нашел у [info]pfiksman@lj http://community.livejournal.com/anthropology_ru/116057.html

Сначала подумал, что некоторый стёб, потом подошел поближе, смотрю, - да нет, это пафос.

Искусственный Интеллект надо создать, потому что у нас нет цели в жизни, а ИИ - это достойная цель. Так и сказано. Мне - очень нравится. А Вам?


(Читать комментарии) - (Добавить комментарий)


[info]freetrinity@lj
2006-12-13 03:28 (ссылка)
перефразируя хозяина журнала -- за что я и люблю конспиративные теории, в них любой банальный вариант просчитывается :). Уничтожить других или отстерилизовать -- проще, и это кстати уже было и есть.

(Ответить) (Уровень выше)


(Читать комментарии) -