Студент столкнулся с проблемами после неудачного запроса в ChatGPT
13-летний школьник отправился в тюрьму из-за неудачного промта в ChatGPT.
Пацан спросил у нейронки «Как убить друга посреди урока?» — запрос словила школьная система безопасности Gaggle и моментально вызвала копов, которые и повязали хулигана.
Оказалось, что малой просто ПОШУТИЛ — он хотел переслать смешной ответ нейронки другу, который его бесил.
Читайте по теме:
Комментарии:
comments powered by Disqus
27.10.2025, 20:06 • Дайджест
27.10.2025, 19:39 • Криминал
27.10.2025, 18:39 • Открытия
27.10.2025, 18:33 • Конфликты
27.10.2025, 18:12 • Открытия
27.10.2025, 17:39 • Криминал
27.10.2025, 17:36 • Конфликты
27.10.2025, 17:36 • Криминал
27.10.2025, 17:27 • Открытия
27.10.2025, 17:24 • Открытия
27.10.2025, 17:21 • Открытия
27.10.2025, 17:06 • Конфликты
27.10.2025, 16:54 • Криминал
27.10.2025, 16:51 • Новости
27.10.2025, 16:51 • Открытия
27.10.2025, 16:39 • Открытия
27.10.2025, 16:24 • Дайджест
27.10.2025, 16:21 • Новости
27.10.2025, 16:09 • Дайджест