Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет sergeyr ([info]sergeyr)
@ 2006-05-23 23:39:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Entry tags:общественное, человеки, эволюция

Потолок темпов развития и человечность
Еськов пытается примирить непримиримое:
1. Прогноз о логарифмических темпах развития.
2. Требование не упускать цивилизационный приоритет из человеческих рук.
3. Запрет на модифицирование человека вне пределов медицины.

Imho, он прав на счёт того, что революция, следующая за информационной, должна произойти в течение этого десятилетия. Но должна - понятие хитрое. Кому она должна-то? Темпы развития уже упёрлись в потолок, максимально доступный человеку как таковому - скорость усвоения нового. Дальше - либо создание искусственного интеллекта, либо расширение определения человечности, либо темпы роста перестают быть логарифмическими (предел - либо одна революция за поколение, либо, если всё же удастся перестроить общество - одна революция за пару лет, но быстрее новые парадигмы не усвоятся никак).

В принципе, последний вариант не есть что-то принципиально невозможное или нежелательное (для выживания вообще одной революции в сто тысяч лет более чем достаточно), но это же самоускоряющий процесс - он на следующей же революции прорвёт все ограничения, если не устроить "1984".
В общем, если не будет капитальной катастрофы, то мне кажется наиболее вероятной потеря приоритета (в течение 20-200 лет). Потом придётся так или иначе меняться самим. Причём очень быстро - развитие через пару лет после прорыва пойдёт, с нашей точки зрения, почти вертикально.



(Читать комментарии) - (Добавить комментарий)


[info]sergeyr@lj
2006-05-24 12:01 (ссылка)
> ЯО. По его достижению страна может не бояться внешнего нападения.

США нынче - крупнейший владелец ЯО. И что, спасло?

> - я вполне согласен что вопрос дискуссионный и сложный, почему мне и
> кажется что обсуждать его надо отдельно, "как большого":)

Можем и обсудить. Но пока моя точка зрения, как старого "стратега" - вот такова.

> Переход к чему-то следующему (не уверен, кстати, что "постиндустриальное
> общество" - это уже то самое) позволит, по логике вещей, понизить цифры еще на порядок

Он может повысить другие цифры, которые при индустриале куда хуже, но мы сейчас их как плохие ещё не привыкли воспринимать.
Это не учитывая того, что я сказал про усиление скорости достижения индустиала постиндустриальными методами (что под постиндустриалом ни понимай).

> Почему именно ИИ требуется для решения таких задач?

Потому же, почему это не решается сейчас - слишком большая счётная мощность нужна. Такие задачи всегда будут.

> будет ли ИИ обладать возможностью самостоятельно ставить себе новые задачи

Если ставим задачи (точная постановка) только мы, то опять всё упирается в наши темпы восприятия нового - и опять мы вынуждены принимать на себя смерти, которых могли бы легко избежать, если бы дали ему свободу постановки задач (в некоторых медиципнских рамках, допустим).

> Не уверен, хотя у меня и нет боилогической квалификации чтобы обоснованно оспорить ваше утверждение.

Я разбирался с сетевыми проектами на эту тему.
Перебираются молекулы с некими предполагаемыми свойствами, опробуются.
Почему именно у этой молекулы именно такой эффект - разбираться иногда не удаётся десятилетиями, а препарат действует.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vladimir000@lj
2006-05-25 04:54 (ссылка)
"ША нынче - крупнейший владелец ЯО. И что, спасло? "

А что, собственно, этого 9/11 для них случилось? Серьезная неприятность - и уже после нее США вполне официально включило в доктрину применение ЯО против бункеров и т.п. - и по всяким косвенным признакам у меня сложилось впечатление, что их пришлось уговаривать не применять это _пока_.

"Он может повысить другие цифры, которые при индустриале куда хуже, но мы сейчас их как плохие ещё не привыкли воспринимать."

Ну, та же проблема голода серьезно воспринималась всегда.

"Это не учитывая того, что я сказал про усиление скорости достижения индустиала постиндустриальными методами (что под постиндустриалом ни понимай)."

Об этом спору нет, согласен.

"> Почему именно ИИ требуется для решения таких задач?

Потому же, почему это не решается сейчас - слишком большая счётная мощность нужна. Такие задачи всегда будут."

Тогда определение ИИ на базу, хотя бы в общих чертах. Потому что в моем определении, ИИ != мощность процессора+объем памяти, сравнимый с человеческим мозгом.

В общем, я за разделение труда "человек должен думать, а машина - считать":)

"Если ставим задачи (точная постановка) только мы, то опять всё упирается в наши темпы восприятия нового - и опять мы вынуждены принимать на себя смерти, которых могли бы легко избежать, если бы дали ему свободу постановки задач (в некоторых медиципнских рамках, допустим)."

Я не думаю, что кого-то привелечет перспектива получить ответ на неизвестно какую задачу;)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 05:09 (ссылка)
> А что, собственно, этого 9/11 для них случилось?

Не понял вопроса.
Тезис о достаточности ЯО сфальсифицирован, собстенно, вот и всё.

> Ну, та же проблема голода серьезно воспринималась всегда.

Проблемы человеческих жертвоприношений, рабства и т.д. - не всегда.
Да и на счёт голода я не вполне уверен.

> Тогда определение ИИ на базу, хотя бы в общих чертах. Потому что в моем
> определении, ИИ != мощность процессора+объем памяти, сравнимый с
> человеческим мозгом.

Разумеется. Я говорю о разуме, более полезном чем человеческий для задач развития хотя бы в том смысле, в каком развитие мы понимаем сейчас.

> В общем, я за разделение труда "человек должен думать, а машина - считать":)

Хочется - да. Но, думаю, не можется.

> Я не думаю, что кого-то привелечет перспектива получить ответ на неизвестно какую задачу;)

Те, кого это не привлечёт, проиграют борьбу за ресурсы. Слишком уж это мощный инструмент.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vladimir000@lj
2006-05-25 09:22 (ссылка)
"Не понял вопроса.
Тезис о достаточности ЯО сфальсифицирован, собстенно, вот и всё."

Я считаю, что 9/11 не тянут на серьезную войну, соответственно и нельзя считать что ЯО "не уберегло" США от серьезной войны. Что всякая мелочевка (не угражающая безопасности страны как таковой) была, есть и будет независимо от ОМУ - с этим я спорить и не собирался.

"Проблемы человеческих жертвоприношений, рабства и т.д. - не всегда.
Да и на счёт голода я не вполне уверен."

С высоты отдаленных потомков - да, наверняка будут коррективы. Но мы-то, кажется, обсуждаем какие причины для технического прогресса есть у наших современников/следующего поколения.

Отсюда, кстати, следует интересная гипотеза, ИМНО наши позиции примиряющая и объединяющая: если (как минимум) до середины XX века основным тормозящим развитие технлогии фактором был сам текущий уровень технологии, то начиная с какого-то времени (допустим, середины XXi века, тут я совсем не уверен) основным торозяшим фактором станет готовность человечества принимать изменения, "пропускающая скорость" этих изменений.

"Те, кого это не привлечёт, проиграют борьбу за ресурсы. Слишком уж это мощный инструмент."

Я не уверен, что это вообще инструмент. Если мы не представляем себе целей, которые решаем - мы можем онаружить, что сделали по всей стране огромные сепулькарии - но сепулек взять неоткуда:)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 10:38 (ссылка)
> Я считаю, что 9/11 не тянут на серьезную войну

Ну как сказать - потери очень конкретные, не во всякой войне такие потери понести удаётся.

> Что всякая мелочевка (не угражающая безопасности страны как таковой) была,
> есть и будет независимо от ОМУ

Так в том-то и дело что уже угрожает, я же приводил пример.
Причём не стране даже угражает, а всему миру.
Фанатики - страшненькая вещь...

> С высоты отдаленных потомков - да, наверняка будут коррективы. Но мы-то,
> кажется, обсуждаем какие причины для технического прогресса есть у наших
> современников/следующего поколения.

Посмотрите на темпы этих самых изменений взглядов на этику.
Они меняются тоже с ускорением, как мне кажется.
Рабство и крепостничество уничтожены как норма всего полтора столетия назад. Расизм - всего пол века.

> Я не уверен, что это вообще инструмент. Если мы не представляем себе целей,
> которые решаем - мы можем онаружить, что сделали по всей стране огромные
> сепулькарии - но сепулек взять неоткуда:)

Можем. От ошибок никто не защищён. Но интеллект, более мощный чем человеческий, по построению будет делать их реже, а результаты выдавать - мощнее.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vladimir000@lj
2006-05-25 10:55 (ссылка)
"Ну как сказать - потери очень конкретные, не во всякой войне такие потери понести удаётся."

3000 - 5000 тысяч, ущерб на сто миллионов. Сопоставимо с Ираком, много меньше Вьетнама или например СССР в Афганисстане. Для страны как целого - несущественно.

"Так в том-то и дело что уже угрожает, я же приводил пример.
Причём не стране даже угражает, а всему миру.
Фанатики - страшненькая вещь..."

Я уже кажется приводил свою точку зрения: фанатик, сумевший освоить такой уровень технологий - это нонсенс, ИМНО. Оно, конечно,Ю лучше не проверять;)

"Посмотрите на темпы этих самых изменений взглядов на этику.
Они меняются тоже с ускорением, как мне кажется.
Рабство и крепостничество уничтожены как норма всего полтора столетия назад. Расизм - всего пол века."

Мне кажется, елси ускорение и есть, то незначительное. Нормой рабство/крепостничество и в XiX веке не воспринималось, расизм не уничтожен до сих пор (ну или надо долго разбираться, что это такое по терминам). Какое-то ускорение есть, но далко не столь быстрое. Социальный прогресс, ИМНО, самый медленный из прогрессов.

"Можем. От ошибок никто не защищён. Но интеллект, более мощный чем человеческий, по построению будет делать их реже, а результаты выдавать - мощнее."

Если я умнее пользователя написанной мной программы - значит ли это, что я должен (или хотя бы могу) решать, какая именно программа ему нужна?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 11:11 (ссылка)
> фанатик, сумевший освоить такой уровень технологий - это нонсенс

Да он не технологии осваивает, а оружие. Я же приводил пример арабов в арабо-израильской войне.
Нет в этом ничего сложного.

> Нормой рабство/крепостничество и в XiX веке не воспринималось

Там, где его уничтожать пришлось - воспринималось.

> расизм не уничтожен до сих пор

Как общепринятая политика в индустриальных обществах - уничтожен.

> Какое-то ускорение есть, но далко не столь быстрое.

Может быть и не столь, но есть. Поэтому в ближайшие пол века можно ожидать одного-двух жовольно резких повышений планки того же рода, что и с рабством и расизмом. И женским равноправием, кстати.

> Если я умнее пользователя написанной мной программы - значит ли это, что я
> должен (или хотя бы могу) решать, какая именно программа ему нужна?

Вопрос не в том, можешь или должен ли. Вопрос в том, какие заказчики выиграют конкуренцию - те, кто уступит приоритет, или те кто будет тормозить процесс своими попытками контроля (которые могут быть действенными лишь некоторое время - пока разрыв в уровне не стал слишком велик).

Я исхожу из голой динамики. Либо сдерживание, либо отрыв, либо отказ от сдерживающего фактора. Четвёртого не дано просто по построению задачи.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vylkas@lj
2006-05-25 11:29 (ссылка)
...если задача изначально правильно построена...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 12:32 (ссылка)
Это умолчание - общее место и я его уже оговорил.
Если у тебя есть аргументы к тому, что она изначально построена неправильно, то так и говори. Выкладывай, в смысле. B-)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vylkas@lj
2006-05-26 03:15 (ссылка)
ничего особенного, просто я очень недоверчиво отношусь к категорическим утверждениям.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-26 03:28 (ссылка)
B выдаёшь их в том же формате что и я, только без имх в постах? B-)

(Ответить) (Уровень выше)


[info]vylkas@lj
2006-05-25 11:04 (ссылка)
вот еще раз вмешаюсь:)

>Но интеллект, более мощный чем человеческий, по построению будет делать их реже, а результаты выдавать - мощнее.

По определению так будет? если нет, то что такое в твоем понимании "мощность" интеллекта?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 11:15 (ссылка)
Ну вон же в квоте ответ русским по белому написан.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vylkas@lj
2006-05-25 11:27 (ссылка)
то есть по определению "более мощным" по сравнению с человеческим является тот интеллект, который выдает аналогичные или "более мощные" результаты, чем человеческий (при равных условиях), но при этом (с точки зрения интеллекта человеческого) результаты более "качественные" (в кавычках потому, что эти термины не определены толком).

Если такой интеллект и появится, то вряд ли мы сможем удержать его в рамках человеческой этики. Он ему будет глубоко пофиг...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 12:23 (ссылка)
> Если такой интеллект и появится, то вряд ли мы сможем удержать его в рамках человеческой этики.

Не факт. Долговременные стратегии в общем-то почти одинаковы для колюшек и для человека.
Но это уже третий вопрос, на самом деле.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vylkas@lj
2006-05-25 17:50 (ссылка)
в том то и дело, что у колюшек интеллект не выше нашего.
А примеров более мощного интеллекта у нас и нету ни одного....

Так что здесь мы уже выходим в область чистых фантазий, ИМХО

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-26 01:09 (ссылка)
> в том то и дело, что у колюшек интеллект не выше нашего.

Зато наш - выше колюшкиного.

(Ответить) (Уровень выше)


(Читать комментарии) -