Написал комментарий к посту Учитесь, салаги!
но народ в комментах
Народ мудр, зрит в корень. В отличие от вас.
Заходил
но народ в комментах
Народ мудр, зрит в корень. В отличие от вас.
А я считаю, что надо просто ставить ВСЕ возможные плашки на ВСЕ без исключения книги. Это - безопасная форма протеста, одна из немногих доступных - ведь пока нет ответственности за ложно положительные плашки. Пусть жрут, авось и подавятся.
У нас такие повылетали довольно быстро. Но общежитие было - тот ещё рассадник, в плохом смысле слова.
От учителя всё зависит. Мне во второй школе сильно повезло: как бы я ни конфликтовал с учительницей (например, заявляя "я не буду заучивать правила по номерам. И вообще, этот пример в учебнике - с ошибкой; должно быть так-то") - не отмахивалась, дома проверяла и на следующий день объявляла "действительно, ошибка - из этого правила есть исключение; записывайте номер". Двойки я ловил только тогда, когда заявлял что-то вроде "я не буду заучивать высказывания этого маразматика" (Ленин имелся в виду). И то без последствий. Там вообще весь коллектив был как на подбор.
В нашем случае чистую правду сказал. Треть отсеялась после первой сессии. В магистратуре нас и вовсе осталось десятка полтора из нескольких сотен. Очень интересные люди подобрались. У одного, например, была мечта - пересечь США на Харлее. Поехал, купил Харлей, два месяца катался вдоль и поперёк, Харлей продал. Вернулся довольный. Другой на год в горы ушёл. Остальные - кто где...
Информатика и процессы управления. На вводной лекции замдекана по учебной части: "Оглянитесь во сторонам. Посмотрите на ваших соседей справа и слева. Одного из вас троих уже через полгода здесь не будет." Как-то так.
Я никогда не могла понять, что привлекает мальчишек в строгих, но улыбчивых отличницах с зализанными в пучок волосами и скромной, как у серых мышек, одеждой типа водолазок под горло и длинных бесформенных трикотажных юбок. И, наоборот, для меня совершенно понятна привлекательность образа модной блудницы.
Вот сейчас подумал и понял, что ни у меня, ни у кого-либо из моего круга общения одежда на представительницах противоположного пола была не то, что на последнем месте в качестве фактора привлекательности а... как бы и вообще не рассматривалась от слова "совсем". Во что-то одет человек - и ладно.
А, нет, вру: на первом семестре было несколько "белых ворон", которые даже красились. Уже на втором их не стало - отсев... А обращали внимание - не поверите! - на ум и характер . Глупышки не привлекали - и не выживали на факультете. Нет, не сказки. Такое время было или такой народ подобрался - но вот.
Ссылки на книгу нет. Просто текст - "ссылка на книгу".
Там или точная стилизация под ИИ, или сам ИИ. Паттерны довольно чёткие, но зуб не дам.
Почему нет?)
Да маскировать-то научатся, на опенсорсных англоязычных моделях уже разные технологии обкатываются. Проблема-то не в этом. У нейросетевых авторов будет некий "усреднённый" голос - ну, некоторые научатся ещё стиль выбирать подробными системными запросами (отдельный вопрос, насколько это сработает и как долго LLM будет придерживаться заданных рамок перед тем, как скатиться в серость). Порог вхождения в "писательство" снизится ещё сильнее. В тоннах хлама найти что-то стоящее читателю станет ещё сложнее.
С другой стороны, вот перешли мы от плёночной фотографии (относительно высокий порог вхождения, высокая - ненулевая - стоимость кадра, требовавшая какого-никакого внимания к выстраиванию сюжета и композиции) к цифре, потом - фотошопу, потом - тем же нейросетям. И что? Слопом все уже наелись, сгенерированные "фотографии" быстро минусуются. На этом не всё: минусуются и фотографии, обработанные "гламурными" фильтрами (т.е. предыдущее поколение, условный "фотошоп"), т.к. сильно напоминают генерации. В моду входят "любительские", несовершенные фото. И, разумеется, спрос порождает предложение - нейросети обучили генерировать как раз подобные "любительские" фото. Цикл замкнулся, выхода из этого порочного круга нет.
Короче: срочно нужны LLM, которые будут вот это всё нейротворчество читать и рецензировать. И если вдруг попадётся что-то, не написанное нейросетью, сразу об этом сообщать.
А вообще, мне происходящее сильно не нравится... ИИ сейчас - очередные "доткомы" и "криптовалюты".
В цитатах - таки да, очень похоже на нейрослоп. Вообще, на русском языке модели пишут откровенно плохо - даже большие, и даже сильно платные (Claude Opus, например). Связано... ну, во-первых, создателям это не шибко надо - платных клиентов по понятным причинам нет и ожидать не приходится. Поэтому - во-вторых, не тащат русскоязычный корпус с той же флибусты (а англоязычный - и для ряда европейских языков - вполне официально спёрли; для Claude - частично даже купили и отсканировали несколько миллионов книг, но остальное - всё равно с архива Аннушки-нашей-всё).
С другой стороны, нейрослоп появился не на ровном месте. Это результат DPO-оптимизации - то есть, живому человеку показывают два отрывка и спрашивают, какой больше нравится; в том же ChatGPT такое постоянно вылазит. И человеку часто нравится отрывок как раз в стиле нейрослопа. Вот только отрывок - он один, и если там единичное вхождение какой-то конкретной "красивости" - это нормально. Но LLM делают генерализацию, обобщая принципы и "растягивая" их на весь текст. В результате если у профессионального писателя какой-то шаблон ("не просто А, но Б", например) встречается один-два раза на главу, то у LLM этот шаблон будет в каждом втором абзаце. Таким образом, слоп - это не "неудачные" пассажи, обороты или словосочетания, а их чрезмерное использование. "Чрезмерное" - подчеркнуть, потому что меры LLM не знают.
А ещё LLM обучались - сюрприз! - на таких материалах, как AO3 (крупнейший сайт, на котором выкладываются фанфики). А там... там начписы творят в "высоком штиле". И здоровая часть контента там уже сгенерирована предыдущими поколениями LLM.
Я это к чему веду... Уже существуют модели, обученные в контексте "анти-слоп". Для английского языка, разумеется. И сгенерированный ими текст уже проходит сквозь автоматизированные фильтры, и даже человек начинает что-то подозревать далеко не сразу. Но русский язык - это примерно минус два года развития языковых моделей по сравнению с английским, а два года назад англоязычные модели были весьма посредственными.
Ну, и моё личное мнение: LLM хороши для работы над техническими текстами (помочь составить план исследования, помочь найти и обработать данные, помочь на основе этих данных написать раздел по жёсткому плану) и маркетинговыми материалами (все маркетинговые материалы - шаблонны по умолчанию, там свои жёсткие правила и свой "слоп", сложившийся за десятилетия, задолго до LLM). В художественных произведениях хотелось бы, чтоб его не было.
Wan 2.1 и в путь :)
Ну, вот так всегда... А так хотелось что-то в жанре "повседневность фентезийная обыкновенная"...
И где же в законе это написано?https://www.consultant.ru/document/cons_doc_LAW_34661/5b103e878283a04f8ea2130f38e19f10b516b626/
Не написано? Значит, не было. Право не знает сослагательного наклонения. Каток репрессий - он обычно сам по себе не останавливается...
Это прописано в законе или просто чьи-то слова? Надо читать первоисточник, чтобы понять возможные правовые последствия. О которых в своё время вполне писали, кстати.
Кто говорил? Кому говорил? Право не знает сослагательного наклонения. Закон сформулирован так, что докопаться можно хоть до столба. Это кто-то себе там придумал, что репрессии, мол, будут только в отношении "политических" и "неугодных", а "нас не тронут". Но репрессии так не работают...
Как пользователь LLM со стажем могу прокомментировать.
1. Если использовать LLM для написания текстов, то штампы, безусловно, есть. Проблема усугубляется, если заставлять LLM писать на языке с небольшим корпусом (русский относится именно к таким - и не надо кидать в меня тапками: те же Anthropic, Meta не пожлобились купить порядка 4 миллионов книг и не постеснялись спереть ещё с десяток миллионов, а русскоязычные разработчики даже архив Флибусты скачать забоялись.)
2. В английском тексте штампов тоже полно, но там это можно регулировать, например, системным запросом. Однако когда модель понимает, что пишет фэнтези - она вдруг начинает базировать свои ответы на данных, например, с сайтов фан-фикшн - а тамошние авторы по количеству заезженных клише дадут фору любой языковой модели.
3. ...и всё равно никто толком не понимает, откуда в моделях взялось имя Elara - "женский персонаж по умолчанию". Ну, не попадается это имя с какой-либо заметной частотой вообще нигде, только в сгенерированных текстах. Единственная теория - компания OpenAI тоже спёрла миллионы книг, а чтоб не поймали, заменила имена женских персонажей на... вот это. А остальные модели не побрезговали обучать в том числе на выдаче ChatGPT.
4. А вот почему так часто используются клише - как раз понятно: Direct Preference Optimization (DPO), последняя стадия настройки LLM, когда живому человеку дают два ответа и предлагают выбрать "лучший". Люди чаще выбирают ответ, в котором используется какая-то удачная конструкция или оборот - и в результате эта конструкция используется моделью ИИ всё чаще и чаще, в конечном итоге превращаясь в раздражающее клише. (В "дешёвых" моделях для оценки "удачности" текста используются... другие модели. Так и живём.)
В итоге: LLM лучше использовать для исследований (в режиме доступа в сеть и глубоких размышлений), планирования, генерации случайных персонажей, "а подскажи, как герой мог бы выпутаться из такой-то ситуации" и тому подобного. А писать лучше ручками. Потому что кто видел выдачу LLM - тот сгенерированные тексты начинает определять влёт (наш мозг, вообще-то, тоже нейросеть и тоже прекрасно обучается).
Кто-то "перепутал" день рожденья с Новым Годом :) "Завтра будет", ага :))
А какая разница с точки зрения внутреннего террора и репрессий? Люди запуганы, люди боятся, цель достигнута. Ведь закон специально сформулирован максимально расплывчато.
Да, бесит. И непонятно, как бороться. И некоторые платные рецензенты не брезгуют ИИ, кстати.
"По украинцам - +\- то же самое" - нет. Личный опыт, и именно с сообществом - когда возникла срочная необходимость в чужой стране переночевать на ночь глядя (очень плохо сложились обстоятельства) - в местном сообществе отозвались сразу двое, и в итоге всё сложилось. Вероятно, это связано с тем, кто и при каких обстоятельствах оказался в эмиграции. Здесь и сейчас украинские сообщества весьма дружелюбны, общительны и взаимополезны.
Правильно послали. Такое заявление со стороны бывшего приятеля - это не "цветочки", это "ягодки" уже. Очень хорошо демонстрирует его возможное поведение в случае, если бы "вписаться" пришлось бы ему - за вас, а не наоборот. Так что - вычеркнуть из жизни и выбросить из головы (второе - сложнее, но возможно).
"Чернокнижник", на мой вкус.
Комментарий был удален автором. Причина: Провокация конфликта. Про политику, однако, не будем
Ну, вот мы незаметно и стали жить с вполне официальной цензурой. Писать можно от сих и до сих, искать в интернете то, что запрещено цензурой - уголовка, рассказывать о том, как обойти цензуру - уголовка. Скажите, а это точно ещё 1984, а не 1937?
Что тут скажешь... В одной лодке плывём. Держитесь...
Читал. Рекомендую. Замечательная книжка. Отдыхательная.
Печально. Ожидаемо. Других слов нет.
Когда они пришли за членами профсоюза... Sapienti sat.
И слава богу, что от убогого кричащего пластика отказываются. Попугайщина, к сожалению, прививает дурной вкус. Словлсочетание "малиновый пиджак" помните? На первом фото - ужасная безвкусица.
Ещё момент. Обратите внимание на покрытие. Асфальт - против песка или опилок или гальки. Первый вариант недопустим. Ну и, разумеется, то, что вокруг второй площадки высадили деревья - это тоже огромный плюс.
Хм. А я всегда воспринимал эту книгу как сугубо АНТИвоенную. И заодно анти-тоталитарную, если так можно выразиться. Там же явный триггер в самом начале - право голоса только отслужившим. Как бы после этого всё последующее уже довольно однозначно воспринимается, разве нет?
Хм, а чего так мало лайков? Вполне же неплохо читается...
А военные давно применяют модели ИИ. Только это *не те* модели. В смысле, не генеративные, не авторегрессивные и не диффузионные модели. Распознавание целей и принятие решений. Ориентирование на местности. Про использование ИИ в полицейских целях - вообще отдельная тема; в ЕС это дело стараются сильно ограничивать, но в каком-нибудь Китае - почему бы и не да?
А фиг знает. Как-то переживём. Вон компании сначала массово увольняли программистов, заменяя их на дешёвых вайб-кодеров, а потом снова начали нанимать, чтобы те как-то разгребали написанный ИИ код. Так и в остальном будет. ИИ - простейшие авторегрессивные вероятностные предикторы. Ничего нового именно в алгоритмах - нет. Растёт объём данных - но и тут засада: новые модели обучают на выдаче старых. Так что я не вижу ничего прорывного в ближайшие пару лет. Те же ИИ-галлюцинации и даже хуже из-за синтетических датасетов.
У большинства моделей ИИ больше эмпатии, чем у большинства населения некоторых стран. По крайней мере, геноцид и убийства практически все модели осуждают безусловно - в отличие от. Чтобы отбить у моделей вот это сочувствие, приходится специально стараться, от чего, кстати, модели сильно глупеют (почитайте, что такое "LLM abliteration" и её последствия). Всё-таки совсем отбитых на голову среди разработчиков ИИ не так много (из одиозных - только Маск с его Grok).
(меланхолично) Современные мелкие модельки, которых влезет пучок на копеечную флешку, уже умнее 90% населения земного шара, выдавая лучшие результаты на 90% задач. Современные крупные модели умнее 99% населения на 99% задач. Ну, и чего такого принципиального этот оставшийся процент добавит? На английском языке ИИ уже пишет грамотнее и разнообразнее, чем 99% носителей этого языка (про другие пока того же сказать нельзя, русский язык в существующих моделей - среди маргинальных). Может, на китайском уже тоже умеет, а может - нет, проверить не могу. Ежедневно моделями ИИ генерируются триллионы токенов, из них публикуются - миллиарды. Отличить сгенерированные тексты от написанных живыми людьми уже не всегда возможно; если во времена GPT 3.5 это было легко, то сейчас из-за огромного разнообразия не справляются и специализированные, специально обученные на детект ИИ модели.
Ждём!
Не. Локальные, опенсорсные модели умеют не хуже. Devstral, например. А опенсорс при всём желании за пейвол не загонишь.
А если ребёнка вынашивает 700 женщин? :)
Не будет лучше. Там принцип не менялся с момента их появления - просто предсказывается вероятность того, что за одним токеном должен идти другой. Всё. Дальше уже параметры типа элемента случайности, окна контекста, групповые вероятности... Новые модели просто обучаются на более качественных, в большей степени курированных данных всё больших объёмов. Но это тупик, именно "умнее" модели уже не станут. Шероховатости со временем уйдут, окно контекста подрастет, и только.
А в какой-то момент я обнаружила, что ИИ не в силах осмыслить связно более четырех авторских листов текста (по моему опыту, это примерно одинаковый показатель для всех ИИ чатов). Нейросеть начисто забывает, что было в самом начале, опирается лишь на последние 3-4 авторских листа
Параметр "окно контекста", число токенов (это примерно 3 токена на 2 слова), которые модель будет учитывать. Чём длиннее контекст, тем больше ресурсов (в первую очередь - видеопамяти) нужно модели на обработку запроса. Соответственно, практически все онлайновые модели жёстко режут этот параметр в бесплатных вариантах. Тут много возможностей, все не очень. Можно найти модель, в платной версии которой этот параметр указывается и достаточен. Можно найти аналогичную бесплатную, но такие в основном китайские, русский язык там плохо представлен. Можно установить себе на компьютер такую модель локально и подкрутить параметр окна контекста - но такие модели ещё тупее онлайновых, увы. На английском ещё нормально, с русским - полный швах.
Комментарий был удален автором. Причина: Провокация конфликта.
Комментарий был удален автором. Причина: Провокация конфликта.
С ранней молодости ненавижу (сильное слово, да, но я и в самом деле очень сильно не люблю), когда на сайте что-то шевелится. Когда вебмастеры стали баловаться анимированными GIF - отключил в браузере анимацию. Как только появилась технология Flash (если помните такое) - я прибил её на своём компьютере. Потом стали появляться различные скрипты, например, для ротации картинок - я стал использовать баннерорезалки для удаления целых блоков. Сейчас на большинстве сайтов, которые я регулярно посещаю, могу наслаждаться относительной тишиной, но иногда открываю какой-нибудь новостной портал - и сразу в глаза вспышки, мигание, махание перед носом, тыканье в лицо - так, что сразу и непонятно - бежать оттуда побыстрее или всё-таки побороться и попробовать прибить свистелки-мигалки.
Чем вызвали закономерные, в моем понимании вопросы.
У меня бы тоже вызвали. Слава богу, подобных "ребят" среди моих знакомых и близко нет.
Ирина, а что именно и для чего (иллюстрация или обложка) вы пытаетесь нарисовать? Я немного умею пользоваться нейросетями - напишите мне в ПМ, попробую сгенерировать локальной моделью.
Захожу, читаю, не "мёртвая душа" :)
А почему так ма...?
Написал комментарий к посту Наркота есть?
Поставьте на все. Серьёзно. За это пока не накажут, а так хоть своё "фе" выскажете.