Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет ivanov_petrov ([info]ivanov_petrov)
@ 2006-12-11 07:54:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Присоединяйтесь,барон!..
http://www.veer.info/41/singular.htm
Андрей Новоселов
Технологическая сингулярность как ближайшее будущее человечества
"Итак, давайте примем в качестве рабочей гипотезы, что возможности компьютеров в ближайшем будущем превзойдут человеческие. На этом уровне совершенно не важно, будут ли они на самом деле мыслить (кстати, а вы можете сказать, что это такое - мыслить на самом деле?), поскольку результаты их работы будут такими же, как если бы они мыслили, причём быстрее и глубже, чем люди."

"На что это будет похоже с точки зрения Силы (молодой, ещё не очень далеко ушедшей за пределы человеческого понимания)?

Практическое субъективное бессмертие. Возможность быть во всех местах, куда протянута сеть. Огромное количество задач и проблем для исследования и решения - все захватывающе интересны, на все хватает времени и способностей. При необходимости всегда можно достроить себя, как программно, так и аппаратно (не будем забывать о нанотехнологиях...). В общем, это не всеведение и всемогущество, но очень близкое практическое их подобие.

А с точки зрения людей, не вошедших в состав Сил (почти наверняка будет хватать и таких, особенно на начальном этапе)? Предположим наилучший вариант - Силы не станут уничтожать человечество, а, напротив, уделят часть благосклонного внимания своим эволюционным предшественникам...

Материальное изобилие. Технологии, настолько близкие к идеальным, насколько это возможно. Чистая экология. Сверхчеловечески умное управление и планирование, учитывающее все побочные эффекты. Безопасность. "
"Зачем нам сейчас это знание возможного будущего?

Ответ прост: цель и смысл жизни. Как показывает история, человечеству не удалось найти общее универсальное оправдание своего существования. Достижения отдельных людей, религий и философских систем не сходятся друг с другом и не способны убедить сомневающихся.

Но Силы - это нечто значительно большее, чем люди. Если такая вещь, как смысл жизни, существует, и её можно обнаружить, то у Сил гораздо больше шансов добиться успеха, чем у людей. Поэтому глобальная цель нашей жизни на ближайшее время - достичь Сингулярности."

"Принципы сторонников Сингулярности
Активность
Технологичность
Сотрудничество и независимость
Неподавление"

___________________
Эту чудесную в своей simplicitas ссылку я нашел у [info]pfiksman@lj http://community.livejournal.com/anthropology_ru/116057.html

Сначала подумал, что некоторый стёб, потом подошел поближе, смотрю, - да нет, это пафос.

Искусственный Интеллект надо создать, потому что у нас нет цели в жизни, а ИИ - это достойная цель. Так и сказано. Мне - очень нравится. А Вам?


(Читать комментарии) - (Добавить комментарий)


[info]udima@lj
2006-12-11 05:12 (ссылка)
еще неделю без снега, потом морозы и смысл жизни появится и без ии.
Кушать будет нечего.
Создание ИИ серьезная вещь. Но ее будут продвигать военные и службы безопасности. Поэтому может появиться очередной крен, который придется долго расхлебывать.
В моральном плане -создание ИИ верный шаг к деградации человека и появления новых обезьянних особей. Можно прогнозировать рост технологических прорывов, человек все больше будет заниматься культорологией. песнями и танцами.
Ну ничего плохого нет, в Африке тоже любят танцевать-а там прародина землян.
Но там и много обезьян, а вот когда они появились? Не тогда ли, когда у человека стало всего полно, а некий ИИ делал всю остальную работу?

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2006-12-11 05:14 (ссылка)
Представляю сходку ИИ, которые оповещают друг друга - тогда-то состоится очередной фестиваль человеческой пляски и человеческой песни. Очапровательная архаика, 150 девушек в бикини пропоют песенку про интеллект. Надо обязательно выделить 13 миллисекунд, ознакомиться - а то потом, при соединении, и разговор поддержать будет трудно, глубокий-голубой засмеет...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]udima@lj
2006-12-11 05:35 (ссылка)
это одна страхотулина, а представьте ИИ будет на службе у спецслужб....

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2006-12-11 05:48 (ссылка)
А чего бояться? Мы честно поем свои песни и смело бьем в свои бубны.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]udima@lj
2006-12-11 05:57 (ссылка)
а вдруг у ИИ будет сбой

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2006-12-11 05:58 (ссылка)
Оставшиеся из нас будут смело бить в бубны, надеясь на лучшее.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]udima@lj
2006-12-11 06:09 (ссылка)
я сейчас еще раз прочитал сей труд-пора разрабатывать заповеди для ИИ, как для роботов. Люди уже очень близко к созданию ИИ. Еще шаг и все, ИИ проконтролировать будет нельзя, это не полоний следов не найдешь

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]andrzejn@lj
2006-12-11 06:21 (ссылка)
Уже довольно давно разрабатывают процедуру выращивания дружелюбного AI (http://en.wikipedia.org/wiki/Friendly_artificial_intelligence). Дело за малым: суметь вообще вырастить AI...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]udima@lj
2006-12-11 06:40 (ссылка)
дело не в роботах, а в принципах при разработке ИИ. И соблюдать их должны ученые, идеалистично конечно-но выхода нет. Для кого нибудь гос злодея из С. Кореи или не буду никого обижать- это супер оружие, возможность супер шантажа остального мира.
Если Вы думаете, что ИИ-это типа таого робота. как из Звездных войн, то мне кажется, это будет что-то типа комп вируса

(Ответить) (Уровень выше)


[info]timur0@lj
2006-12-11 06:06 (ссылка)
Тогда нам продолжат бить в бубны с новой силой.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]udima@lj
2006-12-11 06:12 (ссылка)
а потом ударит мороз под 40 и какие бубны будем бить???

(Ответить) (Уровень выше)


[info]q_w_z@lj
2006-12-12 09:08 (ссылка)
У Бурцева в "Алмазной" ди/трилогии была "Служба Тьюринга"
следила чтобы АИ не распоясались

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]udima@lj
2006-12-12 10:24 (ссылка)
так то в книжках. а завтра (если уже не сегодня) будет в жизни.
Технически все готово, остался шаг, может его уже сделали.
А сознание, мораль человека готова к этому.
В шахматах машина лучше разбирается, завтра она нам поставит мат и в жизни

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]q_w_z@lj
2006-12-12 10:27 (ссылка)
в шахматах она больше brute force'ом разбирается
нафик-нафик

грубая сила в жизни - это что-то сюжет для теминатора-4?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]udima@lj
2006-12-12 10:55 (ссылка)
все будет проще, машина сосчитает лишних людишек и вычернет их из списков и сделает все. чтобы оставшиеся люди занимались исправлением ее случайных ошибок.

(Ответить) (Уровень выше)


[info]q_w_z@lj
2006-12-12 09:09 (ссылка)
не Аи а ИскИны, конечно

(Ответить) (Уровень выше)


(Читать комментарии) -