Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет kouzdra ([info]kouzdra)
@ 2013-06-30 18:09:00

Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Еще на туже тему:
там же в комментах рассуждение на тему "Беспилотник нельзя было запустить? Зачем было без нужды рисковать людьми?".

По факту опять же в рамках тогдашних представлений нельзя: схема экспедиции в ТА воспроизводит рутинную схему полярной/морской/гелогической экспедиции 19-первой половины 20 вв. Но и никаких особенных рисков в ней нет - тут оказывается нужными 3 форсмажорных ЧП последовательно, чтобы экспедиция все-таки влипла в критическую ситуацию - это очень хорошая надежность, так что упрек в "рисках" в 50-е бы бы просто непонятен. Но интересно не это - а нынешняя вера в беспилотники.

А вот тут возникает очень забавный момент, который я сам только что понял: беспилотники для нетиповых задач как-то не вытанцовываются: весь межпланетный космос идет с плотной ручной поддержкой с земли, причем негибкотсть аппараов, невозможность нестандартного ремоннта и временная задержка представляет приличную проблему уже для марсоходиков.

И вот тут проявляется существенное отличие межзвездной экспедиции от межпланетной: временная задержка составляет минуты - максимум часы (что делает невозможным real-time управление, но оставляет возможность принятия решений в ЦУПе). Во-вторых - в случае отказа аппарата время на посылку нового "улучшенного и исправленного" - 5-10 лет максимум.

Тогда как у той же альфы центавра - время обмена сообщениями уже под 10 лет, а возможность (не говоря о цене посылки нового аппарата - 20-30 лет самый-самый минимум. Потому наличие возможности принятия решений "на месте" совсем не факт, что не нужно.

У разного же рода автоматов тут есть интересный дефект, который еще Вейценбаум в 70-е отмечал: им в данный момент невозможно оставлять решения, связанные с целеполаганием, оценками (как моральными, так и прикладными) - просто потому, что по определению источники соответствующих ценностных критериев лежать вне компьютерных систем. В той мере в которой они могут быть формализованы, конечно можно, но у нетипичных ситуаций с неполной информацией запрограммировать заранее imho трудно.

Причем это вовсе не обязаны быть всякие судьбоносные суперрешения - более вероятная ситуация, когда просто долетев до той же центавры надо решать с учетом осмотра на месте и добытой информации, как дальше распределять ресурсы экспедиции, что исследовать etc etc.

Человек тут труднозаменим именно потому что он имеет встроенную базу для подобных решений, более или менее адекватную намерениям тех кто его посылал, а вот у машины тут крайне вероятны проблемы. Причем еще раз - речь не об традиционных ужастиках, а просто о том, что дорогостоящий проект пойдет псу под хвост оттого, что ИИ неправильно будет понимать, в чем смысл предприятия.


(Читать комментарии)

Добавить комментарий:

Как:
Identity URL: 
имя пользователя:    
Вы должны предварительно войти в LiveJournal.com
 
E-mail для ответов: 
Вы сможете оставлять комментарии, даже если не введете e-mail.
Но вы не сможете получать уведомления об ответах на ваши комментарии!
Внимание: на указанный адрес будет выслано подтверждение.
Имя пользователя:
Пароль:
Тема:
HTML нельзя использовать в теме сообщения
Сообщение:



Обратите внимание! Этот пользователь включил опцию сохранения IP-адресов пишущих комментарии к его дневнику.