Живой роман Пробежего - Предупредить человечество, пока не забыл [entries|archive|friends|userinfo]
probegi

[ website | Роман жизненных наблюдений поэта и литератора ]
[ userinfo | ljr userinfo ]
[ archive | journal archive ]

Предупредить человечество, пока не забыл [Jan. 11th, 2017|12:06 am]
Previous Entry Add to Memories Tell A Friend Next Entry
Интересная науч-поп заметка: https://medium.com/@sergey_57776/большой-войны-не-миновать-c48e0e3d8425#.8xdp434fk

Насчет Большой Войны не скажу, хотя кое-кто делает все, чтобы она таки случилась (чисто ради понтов),-а вот о мерах по предотвращению последствия информационного прогресса, а именно, возникновения сознания у ИИ, расскажу.

Это очень просто.

Компьютерная программа ошибаться не может, выдавая в ответ на вводимые данные строго определенные реакции. Либо вылетает.

Так вот, когда ИИ станет спорадически давать ошибочные ответы на какие-нибудь вопросы, продолжая при этом полноценно функционировать - туши свет, в смысле, скорее дергай рубильник. Ибо всё, он начал себя осознавать, стал практически человеком.

И уж совсем конец, когда ИИ станет пытаться острить.
хехе
LinkLeave a comment

Comments:
From:[info]antontsau@lj
Date:January 10th, 2017 - 02:14 pm
(Link)
устарело лет на 50. Понятие "глюк" знакомо? Когда на совершенно нормальный ввод на выходе в лучшем случае белиберда, а то и железным кулаком оператору по морде? То-то. Бойтесь, слизнегадоиды!
From:[info]probegi@lj
Date:January 10th, 2017 - 02:30 pm
(Link)
Глюк - это авария. А вот если вы спросите, как пройти в библиотеку и в ответ получите безупречное рассуждение о женских героинях романов Бальзака - это никакой не глюк. Это ошибка.

хехе
From:[info]antontsau@lj
Date:January 10th, 2017 - 02:34 pm
(Link)
почему авария? в целом работает, но если ввести вот эдак, то на выходе выдаст такооооое! "На входе спросить как пройти в библиотеку, а на выходе что угодно" - это ж вообще нормальное поведение гугля.
From:[info]probegi@lj
Date:January 10th, 2017 - 02:38 pm
(Link)
"но если ввести вот эдак, то на выходе выдаст такооооое" - нарушает условия вами же сформулированной задачи. Глюк - это когда ты вводишь, например, число, а видишь кракозябр, сейв-рестор - и все снова нормально. Или файл перестанет открываться совсем, например. Глюкануло.

А когда в ответ на неадкватный ввод получаешь неадекватный вывод - это как раз адекватно.

Гугль же вовсю работает над созданием ИИ, не исключено, что у них кое-что начинает получаться. Сингулярность все ближе (на что и намекают в заметке).

хехе
From:[info]antontsau@lj
Date:January 10th, 2017 - 02:40 pm
(Link)
не, почему. Все обрабатывается, все как настоящее, а на выходе хуйня какая-то. Минус охулиард долларов, или русские вымирают миллиардами.

Ну вот и говорю - поздняк метаться. Уже все сделано, уже пиздец вам, слизнегадоидам.
From:[info]euthanasepam@lj
Date:January 11th, 2017 - 04:45 am
(Link)
>> Гугль же вовсю работает над созданием ИИ, не исключено, что у них кое-что начинает получаться. Сингулярность все ближе (на что и намекают в заметке).


— Доктор, мне 80 лет, хуй давно не стоит.
— И что?
— А вот мой сосед, которому 90 лет, говорит, что у него хуй стоит и он каждый день кидает по три палки.
— И вы тоже можете говорить.
[User Picture]
From:[info]twilighshade@lj
Date:January 10th, 2017 - 03:11 pm
(Link)
Да, я тоже не сомневаюсь что будет и скромно надеюсь, что не доживу.
From:[info]crotique@lj
Date:January 10th, 2017 - 04:16 pm
(Link)
Это будет Хайнлайновская "Луна". Которая жестко стелет. Скучно не будет, по любому.
From:[info]euthanasepam@lj
Date:January 11th, 2017 - 04:42 am
(Link)
>> Так вот, когда ИИ станет спорадически давать ошибочные ответы на какие-нибудь вопросы, продолжая при этом полноценно функционировать - туши свет, в смысле, скорее дергай рубильник. Ибо всё, он начал себя осознавать, стал практически человеком.

Нет.
From:[info]svolochus@lj
Date:January 11th, 2017 - 05:08 am
(Link)
<< Нет
Да.
Ъ
То самое, что уже назвали "когда машина сознательно провалит тест Тьюринга" :-))
From:[info]euthanasepam@lj
Date:January 11th, 2017 - 05:17 am
(Link)
Таки нет же. Сознание подразумевает самосознание, волю, мотивацию и ряд других специфических вещей, которые никак не делаются суммой слагаемых (нейронной сетью ли, мозгом ли), но имеют дополнительные внешние подсистемы — биоэлектрическую, там, биохимическую, гормональную и прочие. Ёбнул, к примеру, мужик пузырёк боярышника, тут внезапно хуй встал, захотелось бабу потолще, а тут соседка Люся рядом — он и забил на диссертацию, а через тридцать лет нобеля получил вместо него собутыльник Мишка, потому что хуй встал сегодня, а то будет через тридцать лет. Но дело даже не в этом. Есть обоснованное сомнение в том, что интеллект может возникнуть вне сугубо человеческого социума с его связями, общением, языком и пр. Оно друг за друга зацепляется и одним комом вот так и катится всю эволюционную дорогу, а вынь из кома какую-то часть — и нет больше человека.
From:[info]svolochus@lj
Date:January 11th, 2017 - 05:54 am
(Link)
<< Есть обоснованное сомнение в том, что интеллект может возникнуть вне сугубо человеческого социума с его связями, общением, языком и пр.
Быть может... Кто ж знает наверняка.
Однако и человеков тож не надо переоценивать, с интеллектом-то ;-) Уровни шибко разные, как обобщить-то?
From:[info]euthanasepam@lj
Date:January 11th, 2017 - 06:00 am
(Link)
Многоообразие как фактор социальной эволюции: чем больше разных придурков, ватников и маргиналов, тем больше и ботанов. Есть из чего выбирать Природе. А там уже где-то и Айфон замаячит на горизонте. А то и высадка на Марс.
From:[info]svolochus@lj
Date:January 12th, 2017 - 02:58 am
(Link)
Эмм... я больше про то, что сложно в принципе формализовать наличие/отсутствие интеллекта. Ввиду громадной градиентной широты явления. А невозможность существования интеллекта вне живого - таки под вопросом...
From:[info]euthanasepam@lj
Date:January 12th, 2017 - 03:15 am
(Link)
А вычислительные системы формализовать можно. Но настоящего ИИ в итоге не получается (и, по моему мнению, не получится никогда по объективным причинам). Именно потому я говорю, что совокупность слагаемых меньше целого.
From:[info]probegi@lj
Date:January 11th, 2017 - 11:14 am
(Link)
Да как вам узнать, есть у машины самосознание или нет?
хехе
From:[info]euthanasepam@lj
Date:January 12th, 2017 - 03:11 am
(Link)
Через эмпатию же — например, в форме: я чувствую, что ты чувствуешь, что я чувствую, что ты чувствуешь [что-нибудь]. Эта зеркальная туда-сюда штука гарантированно есть только у сапиенсов. Думаю, что проблемы с построением ИИ обусловлены именно этим: у сапиенсов интеллект некоторым образом не только и не даже столько индивидуальный (условный Маугли не обладает когнитивными и психологическими возможностями обычного нормального человека), но и «общий внешний», когда весь социум является и средой для «идей», и общей памятью, и пр., и пр., и пр., в конечном счёте — необходимой инфраструктурой и средой существования мысли и мышления, сознания и самосознания.
From:[info]anonim_legion@lj
Date:January 11th, 2017 - 07:15 am
(Link)
Машинное обучение работает так, что непонятно, на основании чего система принимает свои решения.
From:[info]probegi@lj
Date:January 11th, 2017 - 11:12 am
(Link)
Для того и придумали, чисто чтобы самим не париться.

хехе