Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет Misha Verbitsky ([info]tiphareth)
@ 2023-01-10 18:12:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Для связи (январь 2023)
Архивы:
[ август-декабрь 2022 | апрель-август 2022 | ноябрь 2021-апрель 2022 | май-ноябрь 2021 | январь-май 2021 | 2020 | 2019-2020 | 2019 | 2018-2019 | 2017-2018 | 2014-2017 | 2013 | 2012 | 2011 | 2007-2010 | 2006 ]


(Читать комментарии) - (Добавить комментарий)


(Анонимно)
2023-03-29 18:17 (ссылка)
ЛОЛ

Глава SpaceX, Tesla и Twitter Илон Маск, а также сооснователь Apple Стив Возняк подписали открытое письмо с призывом немедленно приостановить на полгода обучение систем искусственного интеллекта, которые мощнее недавно представленной GPT-4 от компании OpenAI.

Письмо опубликовала некоммерческая организация Future of Life. Его на момент написания заметки подписали более 1,1 тысячи человек, в том числе эксперты в области искусственного интеллекта.

В письме говорится, что «системы искусственного интеллекта, конкурирующие с человеком, могут представлять серьезную опасность для общества и человечества»:

«Продвинутый ИИ может запустить глубокие изменения в истории жизни на Земле, и его следует разрабатывать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует. <...>

Должны ли мы развивать „нечеловеческие умы“, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий.

Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски — управляемыми».

Авторы письма предлагают за полгода «всеобщей паузы» разработать и внедрить «набор общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта», которые будут «гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны».

Исполнительный директор OpenAI Сэм Альтман подписывать это письмо не стал, отмечает Reuters.

Нейросеть GPT-4 от OpenAI была представлена в середине марта. На ее базе построен многозадачный чат-бот ChatGPT, способный решать множество задач.

(Ответить) (Ветвь дискуссии)


[info]nancygold
2023-03-29 19:17 (ссылка)
Hope they will help destroying Russia.
Stomakhin deserves to see Russian death.

(Ответить) (Уровень выше)


(Читать комментарии) -