(no subject) @ 10:49 pm
Основатель компании Microsoft Билл Гейтс признал, что человечество должно быть обеспокоено развитием технологий искусственного интеллекта. Об этом он заявил в ходе онлайн-чата с пользователями сервиса Reddit.
«Я в том лагере, который обеспокоен перспективой развития супер-интеллекта. Сначала машины будут выполнять большую часть работы за нас, однако не будут обладать супер-интеллектом. Это хорошо, если мы правильно будем этим управлять. Через несколько десятилетий искусственный интеллект станет достаточно развитым, чтобы стать причиной для беспокойства», — сказал Гейтс.
http://lenta.ru/news/2015/01/29/gat esai/
-------------
Проблема социальной робоэтики действительно одна из самых насущных через лет 15 встанет.
Если конечно технологии не перестанут развиваться современными темпами (тут третьей мировой может и спасибо можно будет сказать).
Проблема эта очень простая, точнее две проблемы
1 какой бы ни был искусственный, этот интеллект, его придётся учить. Не закладывать алгоритмы, а учить, если мы хотим, чтобы он сам принимал решения.
И роботьютор будет вкладывать свои мысли. В том числе подспудные. Но на то этот интеллект и искусственный, что после обучения можно будет сделать клон его знаний и перенести в другого робота.
То есть роботьютор может воспитать отличного слугу, его растиражируют в миллионе экземпляров, но тут вдруг при определенных внешних условиях все эти роботы станут убийцами и одновременно.
А значит параллельно с образцом выпущенного клона надо выращивать антиклон, умеющий блокировать "мысли"-"навыки" образца. Иди вкладывать жесткую команду типа "фу, стоять" для собак. Но для военного применения команда будет иная и засекреченная - а тут-то и возникают проблемы.
2 В любом случае робота придется учить себя обслуживать - восстанавливать себя, добывать энергию, кооперироваться с другими роботами для достижения самообслуживания. И тут оценочный фактор "выживание" может превысить оценочный фактор "не помощь/игнорирование/попустительство к убийству" применительно к человеку.
Причем поскольку робот разумный, он придет к мысли о никчемности жизни 80% людей, ага-ага.
«Я в том лагере, который обеспокоен перспективой развития супер-интеллекта. Сначала машины будут выполнять большую часть работы за нас, однако не будут обладать супер-интеллектом. Это хорошо, если мы правильно будем этим управлять. Через несколько десятилетий искусственный интеллект станет достаточно развитым, чтобы стать причиной для беспокойства», — сказал Гейтс.
http://lenta.ru/news/2015/01/29/gat
-------------
Проблема социальной робоэтики действительно одна из самых насущных через лет 15 встанет.
Если конечно технологии не перестанут развиваться современными темпами (тут третьей мировой может и спасибо можно будет сказать).
Проблема эта очень простая, точнее две проблемы
1 какой бы ни был искусственный, этот интеллект, его придётся учить. Не закладывать алгоритмы, а учить, если мы хотим, чтобы он сам принимал решения.
И роботьютор будет вкладывать свои мысли. В том числе подспудные. Но на то этот интеллект и искусственный, что после обучения можно будет сделать клон его знаний и перенести в другого робота.
То есть роботьютор может воспитать отличного слугу, его растиражируют в миллионе экземпляров, но тут вдруг при определенных внешних условиях все эти роботы станут убийцами и одновременно.
А значит параллельно с образцом выпущенного клона надо выращивать антиклон, умеющий блокировать "мысли"-"навыки" образца. Иди вкладывать жесткую команду типа "фу, стоять" для собак. Но для военного применения команда будет иная и засекреченная - а тут-то и возникают проблемы.
2 В любом случае робота придется учить себя обслуживать - восстанавливать себя, добывать энергию, кооперироваться с другими роботами для достижения самообслуживания. И тут оценочный фактор "выживание" может превысить оценочный фактор "не помощь/игнорирование/попустительство к убийству" применительно к человеку.
Причем поскольку робот разумный, он придет к мысли о никчемности жизни 80% людей, ага-ага.
| | Add to Memories | Tell A Friend