Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет nancygold ([info]nancygold)
@ 2024-04-10 15:40:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Настроение: contemplative
Entry tags:computing

LLMs inherit Dunning–Kruger effect?
It is obvious why LLM can't do it in a single iteration, but why it still can't count words in its previous messages (which can fully reference), yet correctly answers my message "How many words are in this message?"

I.e. it still has troubles correcting itself even when ran in a feedback mode. Maybe there is some bias towards AI considering its ideas infallible, somehow inherited from the training data?




(Читать комментарии) - (Добавить комментарий)


(Анонимно)
2024-04-10 20:10 (ссылка)
тратишь свою жизнь впустую, вместо того чтобы изобретать ai-driven роботов-хирургов, которые будут отрезать хуи любому желающему.

(Ответить)


(Читать комментарии) -