Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет sergeyr ([info]sergeyr)
@ 2006-05-23 23:39:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Entry tags:общественное, человеки, эволюция

Потолок темпов развития и человечность
Еськов пытается примирить непримиримое:
1. Прогноз о логарифмических темпах развития.
2. Требование не упускать цивилизационный приоритет из человеческих рук.
3. Запрет на модифицирование человека вне пределов медицины.

Imho, он прав на счёт того, что революция, следующая за информационной, должна произойти в течение этого десятилетия. Но должна - понятие хитрое. Кому она должна-то? Темпы развития уже упёрлись в потолок, максимально доступный человеку как таковому - скорость усвоения нового. Дальше - либо создание искусственного интеллекта, либо расширение определения человечности, либо темпы роста перестают быть логарифмическими (предел - либо одна революция за поколение, либо, если всё же удастся перестроить общество - одна революция за пару лет, но быстрее новые парадигмы не усвоятся никак).

В принципе, последний вариант не есть что-то принципиально невозможное или нежелательное (для выживания вообще одной революции в сто тысяч лет более чем достаточно), но это же самоускоряющий процесс - он на следующей же революции прорвёт все ограничения, если не устроить "1984".
В общем, если не будет капитальной катастрофы, то мне кажется наиболее вероятной потеря приоритета (в течение 20-200 лет). Потом придётся так или иначе меняться самим. Причём очень быстро - развитие через пару лет после прорыва пойдёт, с нашей точки зрения, почти вертикально.



(Читать комментарии) - (Добавить комментарий)


[info]sergeyr@lj
2006-05-24 09:00 (ссылка)
> Вот этот сценарий мне кажется как раз исключительно маловероятным

Голливудский - да, но я ж не о них.
Ну вот давайте ещё пример.
Что было бы, если бы Израиль не пошёл в прорыв - не разработал самостоятельно самонаводящиеся ракеты и РЭБ? Даже если бы он просто положился на США - всё, капец, блокада с моря у утеря превосходства в воздухе, что приводило к поражению и на суше. А ведь арабы сами ничего не разрабатывали - только освоили текущий на тот момент уровень.

> В обоих случаях, если я правильно помню - за счет более развитой экономики

Если бы римляне выставили за счёт экономики больше войск или обеспечили бы более длительное обучение войск - это было бы понятно. Но этого не было. Карфагенян сломали умением заимствовать, дисциплиной, политикой - да чем угодно, только не порушенной Ганнибалом экономикой и не отсутствующим в Риме как класс технологическим прорывом.
Тогда этого было достаточно, поэтому что отставание на века по времени означало отставание на проенты по боевому коэффициенту.
Сейчас - да, уже недостаточно. Было недостаточно в XXв, и недостаточно в XXIв. Потому что в XX-XXIвв отставание на десятилетие - это отставание в разы. И я не вижу никаких следов того, что эта тенденция хотя бы замедляется.

> И в двадцатом веке все так же - Германия-41 была куда как продвинутей СССР-41

Но обе эти страны были в прорыве. По несколько разным направлениям, разными методами, но в прорыве. По некоторым параметрам СССР даже опережал (хотя большей частью и отставал).

> Просто теперь можно проиграть войну - но нереально потерять страну из-за вторжения извне

Реально потерять не страну, а весь мир, imho.
Не вечно же они будут размениваться на такие мелочи как самолёты и здания.
Звоночек-то уже был, но бактериологическое они ещё не освоили. поэтому получилось всего лишь забавно.

> "Да и зачем, собствено? Imho, проще и интересней перестроиться самим."
>
> Ну например затем, что переучивать людей )не все из которых на жто
> способны и хотят) - занятие крайне ресурсоемкое.

Такой же, приблизительно, процент людей не освоил ещё индустриал.
Это же не повод застревать в индустриале, пока они все не подтянутся.
Это неэффективно даже с точки зрения самого такого подтягивания - информационное обеспечение позволит втягивать в индустриал быстрее.

> Знаете, мне такие задачи кажутся черемерно абстрактными

Дорисуйте необходимые "конкретные" условия.

> я вполне готов сыграть в какую-то настольную РИ

Спасибо, я и так одну веду, и завтра ожидаю что тормоза закончатся, и моё свободное время тоже.

> если человечество не в состоянии проверить корректность проведенной работы,
> соответственно нет и никакой гарантии ее правильности.

Человечество не в состоянии проверить "корректность" разработки медицинских препаратов. Их просто клинически тестируют, и всё. Вот полученные методы можно будет протестировать - или отказаться от них, чтобы не терять приоритет.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vladimir000@lj
2006-05-24 10:45 (ссылка)
"А ведь арабы сами ничего не разрабатывали - только освоили текущий на тот момент уровень"

на мой взгляд, "точка перелома" в военном плане - ЯО. По его достижению страна может не бояться внешнего нападения.

"Не вечно же они будут размениваться на такие мелочи как самолёты и здания.
Звоночек-то уже был, но бактериологическое они ещё не освоили. поэтому получилось всего лишь забавно."

Не знаю, не знаю. И технических проблем на его пути будет не мало, и "большие дяди" будут реагировтаь неконвенционными средствами - а быть повелителями мух и тараканов надо лишь ну самым отмороженным фанатикам (если вообще каким-либо). Еще раз - я вполне согласен что вопрос дискуссионный и сложный, почему мне и кажется что обсуждать его надо отдельно, "как большого":)

"Такой же, приблизительно, процент людей не освоил ещё индустриал.
Это же не повод застревать в индустриале, пока они все не подтянутся.
Это неэффективно даже с точки зрения самого такого подтягивания - информационное обеспечение позволит втягивать в индустриал быстрее."

Грубо говоря, переход в индустриальное общество позволяет перейти от уровня детской смертности в 10-20 процентов к уровню в 1-2, обеспечить нормальное питание людям и покончить с массовыми эпидемиями. Переход к чему-то следующему (не уверен, кстати, что "постиндустриальное общество" - это уже то самое) позволит, по логике вещей, понизить цифры еще на порядок - что так же сложно, но обеспечит при этом вдесятеро меньший абсолюдный выигрыш. Соответственно, этот переход (а, ИМНО не этот но следующий за ним) может оказаться неэффективным = ненужным, будет восприниматься из серии "всех денег не заработаешь/зачем мне _два_ золотых унитаза, елси ради них придется столько вкалывать". Это, конечно, предположение - но ИМНО именно так экспоненциальная кривая и затормозится.

"Дорисуйте необходимые "конкретные" условия."

1. Почему именно ИИ требуется для решения таких задач? Почему нельзя, грубо говоря, решить их за пару лет используя лишь "счетно-решабельные" свойства супер-мощной ЭВМ?

2. Почему "ИИ большой мощности" = "уступление в развитии"? Вопрос, будет ли ИИ обладать возможностью самостоятельно ставить себе новые задачи, получать информацию и менять окружающую среду, а иначе это будет просто разновидность Deep Blue, только не по шахматам:)

"Человечество не в состоянии проверить "корректность" разработки медицинских препаратов. Их просто клинически тестируют, и всё. Вот полученные методы можно будет протестировать - или отказаться от них, чтобы не терять приоритет."

Не уверен, хотя у меня и нет боилогической квалификации чтобы обоснованно оспорить ваше утверждение. Насколько я понимаю, имеется прослеживаемая "цепочка авторитета", наверху которой стоят разработчики мед.препаратов, соответственно я могу доверять не толкьо результатам клинических испытаний, но и тому что они сделаны в уважаемой лаборатории, другие эксперты знакомы с методологией и возражений не имеют и так далее и тому подобное:) А если некто Вася Пупкин приде и скажет "вот вам лекарство от рака", при том что никто кроме него не понимакет,почему оно работает и работает ли вообще - сомневаюсь, что его пустят в ход:)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-24 12:01 (ссылка)
> ЯО. По его достижению страна может не бояться внешнего нападения.

США нынче - крупнейший владелец ЯО. И что, спасло?

> - я вполне согласен что вопрос дискуссионный и сложный, почему мне и
> кажется что обсуждать его надо отдельно, "как большого":)

Можем и обсудить. Но пока моя точка зрения, как старого "стратега" - вот такова.

> Переход к чему-то следующему (не уверен, кстати, что "постиндустриальное
> общество" - это уже то самое) позволит, по логике вещей, понизить цифры еще на порядок

Он может повысить другие цифры, которые при индустриале куда хуже, но мы сейчас их как плохие ещё не привыкли воспринимать.
Это не учитывая того, что я сказал про усиление скорости достижения индустиала постиндустриальными методами (что под постиндустриалом ни понимай).

> Почему именно ИИ требуется для решения таких задач?

Потому же, почему это не решается сейчас - слишком большая счётная мощность нужна. Такие задачи всегда будут.

> будет ли ИИ обладать возможностью самостоятельно ставить себе новые задачи

Если ставим задачи (точная постановка) только мы, то опять всё упирается в наши темпы восприятия нового - и опять мы вынуждены принимать на себя смерти, которых могли бы легко избежать, если бы дали ему свободу постановки задач (в некоторых медиципнских рамках, допустим).

> Не уверен, хотя у меня и нет боилогической квалификации чтобы обоснованно оспорить ваше утверждение.

Я разбирался с сетевыми проектами на эту тему.
Перебираются молекулы с некими предполагаемыми свойствами, опробуются.
Почему именно у этой молекулы именно такой эффект - разбираться иногда не удаётся десятилетиями, а препарат действует.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vladimir000@lj
2006-05-25 04:54 (ссылка)
"ША нынче - крупнейший владелец ЯО. И что, спасло? "

А что, собственно, этого 9/11 для них случилось? Серьезная неприятность - и уже после нее США вполне официально включило в доктрину применение ЯО против бункеров и т.п. - и по всяким косвенным признакам у меня сложилось впечатление, что их пришлось уговаривать не применять это _пока_.

"Он может повысить другие цифры, которые при индустриале куда хуже, но мы сейчас их как плохие ещё не привыкли воспринимать."

Ну, та же проблема голода серьезно воспринималась всегда.

"Это не учитывая того, что я сказал про усиление скорости достижения индустиала постиндустриальными методами (что под постиндустриалом ни понимай)."

Об этом спору нет, согласен.

"> Почему именно ИИ требуется для решения таких задач?

Потому же, почему это не решается сейчас - слишком большая счётная мощность нужна. Такие задачи всегда будут."

Тогда определение ИИ на базу, хотя бы в общих чертах. Потому что в моем определении, ИИ != мощность процессора+объем памяти, сравнимый с человеческим мозгом.

В общем, я за разделение труда "человек должен думать, а машина - считать":)

"Если ставим задачи (точная постановка) только мы, то опять всё упирается в наши темпы восприятия нового - и опять мы вынуждены принимать на себя смерти, которых могли бы легко избежать, если бы дали ему свободу постановки задач (в некоторых медиципнских рамках, допустим)."

Я не думаю, что кого-то привелечет перспектива получить ответ на неизвестно какую задачу;)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 05:09 (ссылка)
> А что, собственно, этого 9/11 для них случилось?

Не понял вопроса.
Тезис о достаточности ЯО сфальсифицирован, собстенно, вот и всё.

> Ну, та же проблема голода серьезно воспринималась всегда.

Проблемы человеческих жертвоприношений, рабства и т.д. - не всегда.
Да и на счёт голода я не вполне уверен.

> Тогда определение ИИ на базу, хотя бы в общих чертах. Потому что в моем
> определении, ИИ != мощность процессора+объем памяти, сравнимый с
> человеческим мозгом.

Разумеется. Я говорю о разуме, более полезном чем человеческий для задач развития хотя бы в том смысле, в каком развитие мы понимаем сейчас.

> В общем, я за разделение труда "человек должен думать, а машина - считать":)

Хочется - да. Но, думаю, не можется.

> Я не думаю, что кого-то привелечет перспектива получить ответ на неизвестно какую задачу;)

Те, кого это не привлечёт, проиграют борьбу за ресурсы. Слишком уж это мощный инструмент.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vladimir000@lj
2006-05-25 09:22 (ссылка)
"Не понял вопроса.
Тезис о достаточности ЯО сфальсифицирован, собстенно, вот и всё."

Я считаю, что 9/11 не тянут на серьезную войну, соответственно и нельзя считать что ЯО "не уберегло" США от серьезной войны. Что всякая мелочевка (не угражающая безопасности страны как таковой) была, есть и будет независимо от ОМУ - с этим я спорить и не собирался.

"Проблемы человеческих жертвоприношений, рабства и т.д. - не всегда.
Да и на счёт голода я не вполне уверен."

С высоты отдаленных потомков - да, наверняка будут коррективы. Но мы-то, кажется, обсуждаем какие причины для технического прогресса есть у наших современников/следующего поколения.

Отсюда, кстати, следует интересная гипотеза, ИМНО наши позиции примиряющая и объединяющая: если (как минимум) до середины XX века основным тормозящим развитие технлогии фактором был сам текущий уровень технологии, то начиная с какого-то времени (допустим, середины XXi века, тут я совсем не уверен) основным торозяшим фактором станет готовность человечества принимать изменения, "пропускающая скорость" этих изменений.

"Те, кого это не привлечёт, проиграют борьбу за ресурсы. Слишком уж это мощный инструмент."

Я не уверен, что это вообще инструмент. Если мы не представляем себе целей, которые решаем - мы можем онаружить, что сделали по всей стране огромные сепулькарии - но сепулек взять неоткуда:)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 10:38 (ссылка)
> Я считаю, что 9/11 не тянут на серьезную войну

Ну как сказать - потери очень конкретные, не во всякой войне такие потери понести удаётся.

> Что всякая мелочевка (не угражающая безопасности страны как таковой) была,
> есть и будет независимо от ОМУ

Так в том-то и дело что уже угрожает, я же приводил пример.
Причём не стране даже угражает, а всему миру.
Фанатики - страшненькая вещь...

> С высоты отдаленных потомков - да, наверняка будут коррективы. Но мы-то,
> кажется, обсуждаем какие причины для технического прогресса есть у наших
> современников/следующего поколения.

Посмотрите на темпы этих самых изменений взглядов на этику.
Они меняются тоже с ускорением, как мне кажется.
Рабство и крепостничество уничтожены как норма всего полтора столетия назад. Расизм - всего пол века.

> Я не уверен, что это вообще инструмент. Если мы не представляем себе целей,
> которые решаем - мы можем онаружить, что сделали по всей стране огромные
> сепулькарии - но сепулек взять неоткуда:)

Можем. От ошибок никто не защищён. Но интеллект, более мощный чем человеческий, по построению будет делать их реже, а результаты выдавать - мощнее.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vladimir000@lj
2006-05-25 10:55 (ссылка)
"Ну как сказать - потери очень конкретные, не во всякой войне такие потери понести удаётся."

3000 - 5000 тысяч, ущерб на сто миллионов. Сопоставимо с Ираком, много меньше Вьетнама или например СССР в Афганисстане. Для страны как целого - несущественно.

"Так в том-то и дело что уже угрожает, я же приводил пример.
Причём не стране даже угражает, а всему миру.
Фанатики - страшненькая вещь..."

Я уже кажется приводил свою точку зрения: фанатик, сумевший освоить такой уровень технологий - это нонсенс, ИМНО. Оно, конечно,Ю лучше не проверять;)

"Посмотрите на темпы этих самых изменений взглядов на этику.
Они меняются тоже с ускорением, как мне кажется.
Рабство и крепостничество уничтожены как норма всего полтора столетия назад. Расизм - всего пол века."

Мне кажется, елси ускорение и есть, то незначительное. Нормой рабство/крепостничество и в XiX веке не воспринималось, расизм не уничтожен до сих пор (ну или надо долго разбираться, что это такое по терминам). Какое-то ускорение есть, но далко не столь быстрое. Социальный прогресс, ИМНО, самый медленный из прогрессов.

"Можем. От ошибок никто не защищён. Но интеллект, более мощный чем человеческий, по построению будет делать их реже, а результаты выдавать - мощнее."

Если я умнее пользователя написанной мной программы - значит ли это, что я должен (или хотя бы могу) решать, какая именно программа ему нужна?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 11:11 (ссылка)
> фанатик, сумевший освоить такой уровень технологий - это нонсенс

Да он не технологии осваивает, а оружие. Я же приводил пример арабов в арабо-израильской войне.
Нет в этом ничего сложного.

> Нормой рабство/крепостничество и в XiX веке не воспринималось

Там, где его уничтожать пришлось - воспринималось.

> расизм не уничтожен до сих пор

Как общепринятая политика в индустриальных обществах - уничтожен.

> Какое-то ускорение есть, но далко не столь быстрое.

Может быть и не столь, но есть. Поэтому в ближайшие пол века можно ожидать одного-двух жовольно резких повышений планки того же рода, что и с рабством и расизмом. И женским равноправием, кстати.

> Если я умнее пользователя написанной мной программы - значит ли это, что я
> должен (или хотя бы могу) решать, какая именно программа ему нужна?

Вопрос не в том, можешь или должен ли. Вопрос в том, какие заказчики выиграют конкуренцию - те, кто уступит приоритет, или те кто будет тормозить процесс своими попытками контроля (которые могут быть действенными лишь некоторое время - пока разрыв в уровне не стал слишком велик).

Я исхожу из голой динамики. Либо сдерживание, либо отрыв, либо отказ от сдерживающего фактора. Четвёртого не дано просто по построению задачи.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vylkas@lj
2006-05-25 11:29 (ссылка)
...если задача изначально правильно построена...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 12:32 (ссылка)
Это умолчание - общее место и я его уже оговорил.
Если у тебя есть аргументы к тому, что она изначально построена неправильно, то так и говори. Выкладывай, в смысле. B-)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vylkas@lj
2006-05-26 03:15 (ссылка)
ничего особенного, просто я очень недоверчиво отношусь к категорическим утверждениям.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-26 03:28 (ссылка)
B выдаёшь их в том же формате что и я, только без имх в постах? B-)

(Ответить) (Уровень выше)


[info]vylkas@lj
2006-05-25 11:04 (ссылка)
вот еще раз вмешаюсь:)

>Но интеллект, более мощный чем человеческий, по построению будет делать их реже, а результаты выдавать - мощнее.

По определению так будет? если нет, то что такое в твоем понимании "мощность" интеллекта?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 11:15 (ссылка)
Ну вон же в квоте ответ русским по белому написан.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vylkas@lj
2006-05-25 11:27 (ссылка)
то есть по определению "более мощным" по сравнению с человеческим является тот интеллект, который выдает аналогичные или "более мощные" результаты, чем человеческий (при равных условиях), но при этом (с точки зрения интеллекта человеческого) результаты более "качественные" (в кавычках потому, что эти термины не определены толком).

Если такой интеллект и появится, то вряд ли мы сможем удержать его в рамках человеческой этики. Он ему будет глубоко пофиг...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 12:23 (ссылка)
> Если такой интеллект и появится, то вряд ли мы сможем удержать его в рамках человеческой этики.

Не факт. Долговременные стратегии в общем-то почти одинаковы для колюшек и для человека.
Но это уже третий вопрос, на самом деле.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vylkas@lj
2006-05-25 17:50 (ссылка)
в том то и дело, что у колюшек интеллект не выше нашего.
А примеров более мощного интеллекта у нас и нету ни одного....

Так что здесь мы уже выходим в область чистых фантазий, ИМХО

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-26 01:09 (ссылка)
> в том то и дело, что у колюшек интеллект не выше нашего.

Зато наш - выше колюшкиного.

(Ответить) (Уровень выше)


(Читать комментарии) -