Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет sergeyr ([info]sergeyr)
@ 2006-05-23 23:39:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Entry tags:общественное, человеки, эволюция

Потолок темпов развития и человечность
Еськов пытается примирить непримиримое:
1. Прогноз о логарифмических темпах развития.
2. Требование не упускать цивилизационный приоритет из человеческих рук.
3. Запрет на модифицирование человека вне пределов медицины.

Imho, он прав на счёт того, что революция, следующая за информационной, должна произойти в течение этого десятилетия. Но должна - понятие хитрое. Кому она должна-то? Темпы развития уже упёрлись в потолок, максимально доступный человеку как таковому - скорость усвоения нового. Дальше - либо создание искусственного интеллекта, либо расширение определения человечности, либо темпы роста перестают быть логарифмическими (предел - либо одна революция за поколение, либо, если всё же удастся перестроить общество - одна революция за пару лет, но быстрее новые парадигмы не усвоятся никак).

В принципе, последний вариант не есть что-то принципиально невозможное или нежелательное (для выживания вообще одной революции в сто тысяч лет более чем достаточно), но это же самоускоряющий процесс - он на следующей же революции прорвёт все ограничения, если не устроить "1984".
В общем, если не будет капитальной катастрофы, то мне кажется наиболее вероятной потеря приоритета (в течение 20-200 лет). Потом придётся так или иначе меняться самим. Причём очень быстро - развитие через пару лет после прорыва пойдёт, с нашей точки зрения, почти вертикально.



(Читать комментарии) - (Добавить комментарий)


[info]sergeyr@lj
2006-05-24 06:40 (ссылка)
> Нормальное экспоненциальное

Экспоненциальное и логарифмическое - это вообще-то некоторым образом одно и то же, только с разных сторон. B-}

> желание человечества к переменам

Это не новый фактор, он всегда был.
Есть, и будет есть.

> от этих самых перемен сопоставимо с их стоимостью, понимание
> ограниченности ресурсов и, следовательно перестройка на
> более "интенстивное" (в противовес "экстенсивному") их использовние.

А это просто элементы самого процесса развития. Завтра мы поймём что-нибудь ещё, и это всё будет элементом того же процесса. И эти элементы не выбивают из процесса, а как раз и принимают участие в его формировании - со всеми его темпами.

> Все у нас получится:)

Я не о том что не получится. Я о том, что с какого-то момента получаться ЛУЧШЕ уже станет не у НАС. И отставание это будет уже через пару лет столь же сильным, как сейчас - отставание произвольной обезьяны от произвольного научного сотрудника. И разрыв этот будет расти ускоряющимися темпами, если мы не изменим определение этого "МЫ".

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vladimir000@lj
2006-05-24 07:07 (ссылка)
"Экспоненциальное и логарифмическое - это вообще-то некоторым образом одно и то же, только с разных сторон. B-}"

Спасибо, мне уже доложили;) Просто я в литературе встречал в основном это определение для известной кривой, и ИМНо использование "тоже верного, но отличающегося" - классическое умножение сущностей.

"Это не новый фактор, он всегда был.
Есть, и будет есть."

А вот это, кстати, ИМНО очень неоднозначный вопрос. Как я себе представляю, это вещь исключительно счетная - на одной чаше весов "насколько зрелый банан мы отхватим", а не другой - "сколько ради него придется прыгать". Все века (может, какие-то исключения и были, я имею в виду "маэнстрим") прыгать было необходимо, в первую очередь в военной области (а она тянула все остальное) - иначе не только без банана, но и без головы останешься. Сейчас, в общем, такой угрозы нет и представить себе повторение несчастного огораживания я, в общем, в приличном обществе не могу - то есть, желание "пусть никто не уйдет обиженным" начинает быть сопоставимо-весомым по сравнению с "зато мы делаем ракеты". Я не очень понимаю, достоточно подробно/четко написал или скомкано все, боюсь слишком сильно разжевывать мысль - но всегда готов это сделать;)

"А это просто элементы самого процесса развития. Завтра мы поймём что-нибудь ещё, и это всё будет элементом того же процесса. И эти элементы не выбивают из процесса, а как раз и принимают участие в его формировании - со всеми его темпами."

Это - один из возможных постулатов. Но мне он кажется спорным, я предлагаю другой - технологическое развитие человечества - это процесс, скорость которго определяется внешними для него (тезнологического развития) факторами. Этими факотрами являются как различного рода стимулы (желание человечества "познать природу", необходимость поддерживтаь военный париртет, стремление улучшить уровень жизни и т.п.) и ограничения - нехватка необходимых ресурсов, технологий обработки, знаний что и как делать и т.п. Исходя из этого постулата-бис, я вывожу жкспоненциальный прогресс в прошлом: единственный серьезный сдерживающий фактор - уровень достигнутого технологического програсса же, отсюда получаем в первом приближении простейший диффур dF = k*F*dt, где F - тот самый "уровень прогресса", F = F0 * exp (k*t). Вместе с тем, если в последние 30-50 лет "весомость" других факторов оказалась сопоставимой с прежде основным, то и диффур изменяется соответственно - и экспоненциальность развития уже ниоткуда не следует.

"Я о том, что с какого-то момента получаться ЛУЧШЕ уже станет не у НАС. И отставание это будет уже через пару лет столь же сильным, как сейчас - отставание произвольной обезьяны от произвольного научного сотрудника. И разрыв этот будет расти ускоряющимися темпами, если мы не изменим определение этого "МЫ"."

Или если мы перестанем прогрессировать экспоненциально. По-моему, это самый вероятный и одновременно оптимистический вариант.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-24 07:34 (ссылка)
> Просто я в литературе встречал в основном это определение для известной кривой

Я не в курсе является ли это словоупотребление у Еськова общепринятым, но у меня лично оно непонимания не вызвало (хотя сам бы я тоже писал "экспоненциальное"), поэтому я по умолчанию оставил как есть.

> прыгать было необходимо, в первую очередь в военной области

Это как раз сейчас необходимо (если не разрабатывать новые вооружения - рано или поздно какие-нибудь фанатики освоят текущий уровень и устроят Армагеддон) и было необходимо начиная где-то с середины "шествия модерна" (когда темпы роста стали видимыми в одном поколении).
А раньше - не было необходимо. Сплошь и рядом техологическая отсталость отнюдь не мешала. Скажем, римляне - категорически уступали карфагенянам в морских технологиях - и выиграли войну на море, уступали кельтам в металлургии - и выиграли "войну пехоты" в лесистой местности, где качество мечей и прочего оружия - очень нехилый фактор.
Всё можно было компенсировать мясом, хитростью, организованностью, да мало ли чем ещё.
А вот в XXв - уже стало нельзя. Слишком много людей можно убить из пулемёта за минуту, в сравнении с луком или мечом.

> Это - один из возможных постулатов.

Это не постулат, это оценка (в смысле - оценка наиболее веротяного исхода).
Я допускаю что плотину удастся построить, но пока не вижу как.
Да и зачем, собствено? Imho, проще и интересней перестроиться самим.

Чтобы не влезать в длинные определения, давайте потестируем Вашу модель на конкретном примере "прорыва плотины".
Представьте себе, что Вы создали полноценный ИИ, который может за несколько дней решить сразу несколько ранее неразрешимых медицинских задач. Это спасёт тысячи, если не миллионы жизней буквально сразу же. Цена - уступить приоритет в развитии. Не уступите?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vladimir000@lj
2006-05-24 08:08 (ссылка)
"Это как раз сейчас необходимо (если не разрабатывать новые вооружения - рано или поздно какие-нибудь фанатики освоят текущий уровень и устроят Армагеддон)"

Вот этот сценарий мне кажется как раз исключительно маловероятным (хотя, разумеется, одна из самых красивых страшилок для Голливуда и песенного хора "дай денег, Зин народ"). ИМНО, это все тема как минимум еще одного большого обсуждения, так что сейчас скажу лишь тезис: те, кто в состоянии самостоятельно освоить _настолько_ большой объем технологий, уже не являются фанатиками.

"А раньше - не было необходимо. Сплошь и рядом техологическая отсталость отнюдь не мешала. Скажем, римляне - категорически уступали карфагенянам в морских технологиях - и выиграли войну на море, уступали кельтам в металлургии - и выиграли "войну пехоты" в лесистой местности, где качество мечей и прочего оружия - очень нехилый фактор."

В обоих случаях, если я правильно помню - за счет более развитой экономики и, так сказать, ресурсной базы. Я и не утверждаю, что прогресс подталкивается исключительно вооружением - но для армии требуется не проигрывать в технике _критически_

"А вот в XXв - уже стало нельзя. Слишком много людей можно убить из пулемёта за минуту, в сравнении с луком или мечом."

И в двадцатом веке все так же - Германия-41 была куда как продвинутей СССР-41, я уж про Вьетнам с Афганистаном молчу. Просто теперь можно проиграть войну - но нереально потерять страну из-за вторжения извне (я, естественно, про "сверхдержавы"/"империи"/"золотой миллиард" сейчас)

"Это не постулат, это оценка (в смысле - оценка наиболее веротяного исхода)."

Тогда вопрос - почему этот исход кажется наиболее вероятным? Я попытался изложить свои соображения почему это так было прежде и почему ситуация изменилась.

"Да и зачем, собствено? Imho, проще и интересней перестроиться самим."

Ну например затем, что переучивать людей )не все из которых на жто способны и хотят) - занятие крайне ресурсоемкое.

"Представьте себе, что Вы создали полноценный ИИ, который может за несколько дней решить сразу несколько ранее неразрешимых медицинских задач. Это спасёт тысячи, если не миллионы жизней буквально сразу же. Цена - уступить приоритет в развитии. Не уступите?"

Знаете, мне такие задачи кажутся черемерно абстрактными, я вполне готов сыграть в какую-то настольную РИ на эту тему (и ИМНо было бы интересно сорганизовать), но нужны более полные вводные и кнутренние связи. Массачусетские машины протсо так из воздуха не появляются, помимо всего прочего:) Еще один серьезный довод - если человечество не в состоянии проверить корректность проведенной работы, соответственно нет и никакой гарантии ее правильности.

В общем, я вполне за то чтобы попытаться отмоделировать ситуацию - но нужны исходные данные. Кстати, у меня и время кое-какое свободное сейчас имеется, может и вправду организовать? Полагаю, сюдет небезинтересный может получиться:)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-24 09:00 (ссылка)
> Вот этот сценарий мне кажется как раз исключительно маловероятным

Голливудский - да, но я ж не о них.
Ну вот давайте ещё пример.
Что было бы, если бы Израиль не пошёл в прорыв - не разработал самостоятельно самонаводящиеся ракеты и РЭБ? Даже если бы он просто положился на США - всё, капец, блокада с моря у утеря превосходства в воздухе, что приводило к поражению и на суше. А ведь арабы сами ничего не разрабатывали - только освоили текущий на тот момент уровень.

> В обоих случаях, если я правильно помню - за счет более развитой экономики

Если бы римляне выставили за счёт экономики больше войск или обеспечили бы более длительное обучение войск - это было бы понятно. Но этого не было. Карфагенян сломали умением заимствовать, дисциплиной, политикой - да чем угодно, только не порушенной Ганнибалом экономикой и не отсутствующим в Риме как класс технологическим прорывом.
Тогда этого было достаточно, поэтому что отставание на века по времени означало отставание на проенты по боевому коэффициенту.
Сейчас - да, уже недостаточно. Было недостаточно в XXв, и недостаточно в XXIв. Потому что в XX-XXIвв отставание на десятилетие - это отставание в разы. И я не вижу никаких следов того, что эта тенденция хотя бы замедляется.

> И в двадцатом веке все так же - Германия-41 была куда как продвинутей СССР-41

Но обе эти страны были в прорыве. По несколько разным направлениям, разными методами, но в прорыве. По некоторым параметрам СССР даже опережал (хотя большей частью и отставал).

> Просто теперь можно проиграть войну - но нереально потерять страну из-за вторжения извне

Реально потерять не страну, а весь мир, imho.
Не вечно же они будут размениваться на такие мелочи как самолёты и здания.
Звоночек-то уже был, но бактериологическое они ещё не освоили. поэтому получилось всего лишь забавно.

> "Да и зачем, собствено? Imho, проще и интересней перестроиться самим."
>
> Ну например затем, что переучивать людей )не все из которых на жто
> способны и хотят) - занятие крайне ресурсоемкое.

Такой же, приблизительно, процент людей не освоил ещё индустриал.
Это же не повод застревать в индустриале, пока они все не подтянутся.
Это неэффективно даже с точки зрения самого такого подтягивания - информационное обеспечение позволит втягивать в индустриал быстрее.

> Знаете, мне такие задачи кажутся черемерно абстрактными

Дорисуйте необходимые "конкретные" условия.

> я вполне готов сыграть в какую-то настольную РИ

Спасибо, я и так одну веду, и завтра ожидаю что тормоза закончатся, и моё свободное время тоже.

> если человечество не в состоянии проверить корректность проведенной работы,
> соответственно нет и никакой гарантии ее правильности.

Человечество не в состоянии проверить "корректность" разработки медицинских препаратов. Их просто клинически тестируют, и всё. Вот полученные методы можно будет протестировать - или отказаться от них, чтобы не терять приоритет.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vladimir000@lj
2006-05-24 10:45 (ссылка)
"А ведь арабы сами ничего не разрабатывали - только освоили текущий на тот момент уровень"

на мой взгляд, "точка перелома" в военном плане - ЯО. По его достижению страна может не бояться внешнего нападения.

"Не вечно же они будут размениваться на такие мелочи как самолёты и здания.
Звоночек-то уже был, но бактериологическое они ещё не освоили. поэтому получилось всего лишь забавно."

Не знаю, не знаю. И технических проблем на его пути будет не мало, и "большие дяди" будут реагировтаь неконвенционными средствами - а быть повелителями мух и тараканов надо лишь ну самым отмороженным фанатикам (если вообще каким-либо). Еще раз - я вполне согласен что вопрос дискуссионный и сложный, почему мне и кажется что обсуждать его надо отдельно, "как большого":)

"Такой же, приблизительно, процент людей не освоил ещё индустриал.
Это же не повод застревать в индустриале, пока они все не подтянутся.
Это неэффективно даже с точки зрения самого такого подтягивания - информационное обеспечение позволит втягивать в индустриал быстрее."

Грубо говоря, переход в индустриальное общество позволяет перейти от уровня детской смертности в 10-20 процентов к уровню в 1-2, обеспечить нормальное питание людям и покончить с массовыми эпидемиями. Переход к чему-то следующему (не уверен, кстати, что "постиндустриальное общество" - это уже то самое) позволит, по логике вещей, понизить цифры еще на порядок - что так же сложно, но обеспечит при этом вдесятеро меньший абсолюдный выигрыш. Соответственно, этот переход (а, ИМНО не этот но следующий за ним) может оказаться неэффективным = ненужным, будет восприниматься из серии "всех денег не заработаешь/зачем мне _два_ золотых унитаза, елси ради них придется столько вкалывать". Это, конечно, предположение - но ИМНО именно так экспоненциальная кривая и затормозится.

"Дорисуйте необходимые "конкретные" условия."

1. Почему именно ИИ требуется для решения таких задач? Почему нельзя, грубо говоря, решить их за пару лет используя лишь "счетно-решабельные" свойства супер-мощной ЭВМ?

2. Почему "ИИ большой мощности" = "уступление в развитии"? Вопрос, будет ли ИИ обладать возможностью самостоятельно ставить себе новые задачи, получать информацию и менять окружающую среду, а иначе это будет просто разновидность Deep Blue, только не по шахматам:)

"Человечество не в состоянии проверить "корректность" разработки медицинских препаратов. Их просто клинически тестируют, и всё. Вот полученные методы можно будет протестировать - или отказаться от них, чтобы не терять приоритет."

Не уверен, хотя у меня и нет боилогической квалификации чтобы обоснованно оспорить ваше утверждение. Насколько я понимаю, имеется прослеживаемая "цепочка авторитета", наверху которой стоят разработчики мед.препаратов, соответственно я могу доверять не толкьо результатам клинических испытаний, но и тому что они сделаны в уважаемой лаборатории, другие эксперты знакомы с методологией и возражений не имеют и так далее и тому подобное:) А если некто Вася Пупкин приде и скажет "вот вам лекарство от рака", при том что никто кроме него не понимакет,почему оно работает и работает ли вообще - сомневаюсь, что его пустят в ход:)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-24 12:01 (ссылка)
> ЯО. По его достижению страна может не бояться внешнего нападения.

США нынче - крупнейший владелец ЯО. И что, спасло?

> - я вполне согласен что вопрос дискуссионный и сложный, почему мне и
> кажется что обсуждать его надо отдельно, "как большого":)

Можем и обсудить. Но пока моя точка зрения, как старого "стратега" - вот такова.

> Переход к чему-то следующему (не уверен, кстати, что "постиндустриальное
> общество" - это уже то самое) позволит, по логике вещей, понизить цифры еще на порядок

Он может повысить другие цифры, которые при индустриале куда хуже, но мы сейчас их как плохие ещё не привыкли воспринимать.
Это не учитывая того, что я сказал про усиление скорости достижения индустиала постиндустриальными методами (что под постиндустриалом ни понимай).

> Почему именно ИИ требуется для решения таких задач?

Потому же, почему это не решается сейчас - слишком большая счётная мощность нужна. Такие задачи всегда будут.

> будет ли ИИ обладать возможностью самостоятельно ставить себе новые задачи

Если ставим задачи (точная постановка) только мы, то опять всё упирается в наши темпы восприятия нового - и опять мы вынуждены принимать на себя смерти, которых могли бы легко избежать, если бы дали ему свободу постановки задач (в некоторых медиципнских рамках, допустим).

> Не уверен, хотя у меня и нет боилогической квалификации чтобы обоснованно оспорить ваше утверждение.

Я разбирался с сетевыми проектами на эту тему.
Перебираются молекулы с некими предполагаемыми свойствами, опробуются.
Почему именно у этой молекулы именно такой эффект - разбираться иногда не удаётся десятилетиями, а препарат действует.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vladimir000@lj
2006-05-25 04:54 (ссылка)
"ША нынче - крупнейший владелец ЯО. И что, спасло? "

А что, собственно, этого 9/11 для них случилось? Серьезная неприятность - и уже после нее США вполне официально включило в доктрину применение ЯО против бункеров и т.п. - и по всяким косвенным признакам у меня сложилось впечатление, что их пришлось уговаривать не применять это _пока_.

"Он может повысить другие цифры, которые при индустриале куда хуже, но мы сейчас их как плохие ещё не привыкли воспринимать."

Ну, та же проблема голода серьезно воспринималась всегда.

"Это не учитывая того, что я сказал про усиление скорости достижения индустиала постиндустриальными методами (что под постиндустриалом ни понимай)."

Об этом спору нет, согласен.

"> Почему именно ИИ требуется для решения таких задач?

Потому же, почему это не решается сейчас - слишком большая счётная мощность нужна. Такие задачи всегда будут."

Тогда определение ИИ на базу, хотя бы в общих чертах. Потому что в моем определении, ИИ != мощность процессора+объем памяти, сравнимый с человеческим мозгом.

В общем, я за разделение труда "человек должен думать, а машина - считать":)

"Если ставим задачи (точная постановка) только мы, то опять всё упирается в наши темпы восприятия нового - и опять мы вынуждены принимать на себя смерти, которых могли бы легко избежать, если бы дали ему свободу постановки задач (в некоторых медиципнских рамках, допустим)."

Я не думаю, что кого-то привелечет перспектива получить ответ на неизвестно какую задачу;)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 05:09 (ссылка)
> А что, собственно, этого 9/11 для них случилось?

Не понял вопроса.
Тезис о достаточности ЯО сфальсифицирован, собстенно, вот и всё.

> Ну, та же проблема голода серьезно воспринималась всегда.

Проблемы человеческих жертвоприношений, рабства и т.д. - не всегда.
Да и на счёт голода я не вполне уверен.

> Тогда определение ИИ на базу, хотя бы в общих чертах. Потому что в моем
> определении, ИИ != мощность процессора+объем памяти, сравнимый с
> человеческим мозгом.

Разумеется. Я говорю о разуме, более полезном чем человеческий для задач развития хотя бы в том смысле, в каком развитие мы понимаем сейчас.

> В общем, я за разделение труда "человек должен думать, а машина - считать":)

Хочется - да. Но, думаю, не можется.

> Я не думаю, что кого-то привелечет перспектива получить ответ на неизвестно какую задачу;)

Те, кого это не привлечёт, проиграют борьбу за ресурсы. Слишком уж это мощный инструмент.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vladimir000@lj
2006-05-25 09:22 (ссылка)
"Не понял вопроса.
Тезис о достаточности ЯО сфальсифицирован, собстенно, вот и всё."

Я считаю, что 9/11 не тянут на серьезную войну, соответственно и нельзя считать что ЯО "не уберегло" США от серьезной войны. Что всякая мелочевка (не угражающая безопасности страны как таковой) была, есть и будет независимо от ОМУ - с этим я спорить и не собирался.

"Проблемы человеческих жертвоприношений, рабства и т.д. - не всегда.
Да и на счёт голода я не вполне уверен."

С высоты отдаленных потомков - да, наверняка будут коррективы. Но мы-то, кажется, обсуждаем какие причины для технического прогресса есть у наших современников/следующего поколения.

Отсюда, кстати, следует интересная гипотеза, ИМНО наши позиции примиряющая и объединяющая: если (как минимум) до середины XX века основным тормозящим развитие технлогии фактором был сам текущий уровень технологии, то начиная с какого-то времени (допустим, середины XXi века, тут я совсем не уверен) основным торозяшим фактором станет готовность человечества принимать изменения, "пропускающая скорость" этих изменений.

"Те, кого это не привлечёт, проиграют борьбу за ресурсы. Слишком уж это мощный инструмент."

Я не уверен, что это вообще инструмент. Если мы не представляем себе целей, которые решаем - мы можем онаружить, что сделали по всей стране огромные сепулькарии - но сепулек взять неоткуда:)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 10:38 (ссылка)
> Я считаю, что 9/11 не тянут на серьезную войну

Ну как сказать - потери очень конкретные, не во всякой войне такие потери понести удаётся.

> Что всякая мелочевка (не угражающая безопасности страны как таковой) была,
> есть и будет независимо от ОМУ

Так в том-то и дело что уже угрожает, я же приводил пример.
Причём не стране даже угражает, а всему миру.
Фанатики - страшненькая вещь...

> С высоты отдаленных потомков - да, наверняка будут коррективы. Но мы-то,
> кажется, обсуждаем какие причины для технического прогресса есть у наших
> современников/следующего поколения.

Посмотрите на темпы этих самых изменений взглядов на этику.
Они меняются тоже с ускорением, как мне кажется.
Рабство и крепостничество уничтожены как норма всего полтора столетия назад. Расизм - всего пол века.

> Я не уверен, что это вообще инструмент. Если мы не представляем себе целей,
> которые решаем - мы можем онаружить, что сделали по всей стране огромные
> сепулькарии - но сепулек взять неоткуда:)

Можем. От ошибок никто не защищён. Но интеллект, более мощный чем человеческий, по построению будет делать их реже, а результаты выдавать - мощнее.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vladimir000@lj
2006-05-25 10:55 (ссылка)
"Ну как сказать - потери очень конкретные, не во всякой войне такие потери понести удаётся."

3000 - 5000 тысяч, ущерб на сто миллионов. Сопоставимо с Ираком, много меньше Вьетнама или например СССР в Афганисстане. Для страны как целого - несущественно.

"Так в том-то и дело что уже угрожает, я же приводил пример.
Причём не стране даже угражает, а всему миру.
Фанатики - страшненькая вещь..."

Я уже кажется приводил свою точку зрения: фанатик, сумевший освоить такой уровень технологий - это нонсенс, ИМНО. Оно, конечно,Ю лучше не проверять;)

"Посмотрите на темпы этих самых изменений взглядов на этику.
Они меняются тоже с ускорением, как мне кажется.
Рабство и крепостничество уничтожены как норма всего полтора столетия назад. Расизм - всего пол века."

Мне кажется, елси ускорение и есть, то незначительное. Нормой рабство/крепостничество и в XiX веке не воспринималось, расизм не уничтожен до сих пор (ну или надо долго разбираться, что это такое по терминам). Какое-то ускорение есть, но далко не столь быстрое. Социальный прогресс, ИМНО, самый медленный из прогрессов.

"Можем. От ошибок никто не защищён. Но интеллект, более мощный чем человеческий, по построению будет делать их реже, а результаты выдавать - мощнее."

Если я умнее пользователя написанной мной программы - значит ли это, что я должен (или хотя бы могу) решать, какая именно программа ему нужна?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 11:11 (ссылка)
> фанатик, сумевший освоить такой уровень технологий - это нонсенс

Да он не технологии осваивает, а оружие. Я же приводил пример арабов в арабо-израильской войне.
Нет в этом ничего сложного.

> Нормой рабство/крепостничество и в XiX веке не воспринималось

Там, где его уничтожать пришлось - воспринималось.

> расизм не уничтожен до сих пор

Как общепринятая политика в индустриальных обществах - уничтожен.

> Какое-то ускорение есть, но далко не столь быстрое.

Может быть и не столь, но есть. Поэтому в ближайшие пол века можно ожидать одного-двух жовольно резких повышений планки того же рода, что и с рабством и расизмом. И женским равноправием, кстати.

> Если я умнее пользователя написанной мной программы - значит ли это, что я
> должен (или хотя бы могу) решать, какая именно программа ему нужна?

Вопрос не в том, можешь или должен ли. Вопрос в том, какие заказчики выиграют конкуренцию - те, кто уступит приоритет, или те кто будет тормозить процесс своими попытками контроля (которые могут быть действенными лишь некоторое время - пока разрыв в уровне не стал слишком велик).

Я исхожу из голой динамики. Либо сдерживание, либо отрыв, либо отказ от сдерживающего фактора. Четвёртого не дано просто по построению задачи.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vylkas@lj
2006-05-25 11:29 (ссылка)
...если задача изначально правильно построена...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 12:32 (ссылка)
Это умолчание - общее место и я его уже оговорил.
Если у тебя есть аргументы к тому, что она изначально построена неправильно, то так и говори. Выкладывай, в смысле. B-)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vylkas@lj
2006-05-26 03:15 (ссылка)
ничего особенного, просто я очень недоверчиво отношусь к категорическим утверждениям.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-26 03:28 (ссылка)
B выдаёшь их в том же формате что и я, только без имх в постах? B-)

(Ответить) (Уровень выше)


[info]vylkas@lj
2006-05-25 11:04 (ссылка)
вот еще раз вмешаюсь:)

>Но интеллект, более мощный чем человеческий, по построению будет делать их реже, а результаты выдавать - мощнее.

По определению так будет? если нет, то что такое в твоем понимании "мощность" интеллекта?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 11:15 (ссылка)
Ну вон же в квоте ответ русским по белому написан.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vylkas@lj
2006-05-25 11:27 (ссылка)
то есть по определению "более мощным" по сравнению с человеческим является тот интеллект, который выдает аналогичные или "более мощные" результаты, чем человеческий (при равных условиях), но при этом (с точки зрения интеллекта человеческого) результаты более "качественные" (в кавычках потому, что эти термины не определены толком).

Если такой интеллект и появится, то вряд ли мы сможем удержать его в рамках человеческой этики. Он ему будет глубоко пофиг...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-25 12:23 (ссылка)
> Если такой интеллект и появится, то вряд ли мы сможем удержать его в рамках человеческой этики.

Не факт. Долговременные стратегии в общем-то почти одинаковы для колюшек и для человека.
Но это уже третий вопрос, на самом деле.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vylkas@lj
2006-05-25 17:50 (ссылка)
в том то и дело, что у колюшек интеллект не выше нашего.
А примеров более мощного интеллекта у нас и нету ни одного....

Так что здесь мы уже выходим в область чистых фантазий, ИМХО

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]sergeyr@lj
2006-05-26 01:09 (ссылка)
> в том то и дело, что у колюшек интеллект не выше нашего.

Зато наш - выше колюшкиного.

(Ответить) (Уровень выше)


(Читать комментарии) -