2 337
45 250
0
4 525

Заходил

Написал комментарий к посту Учитесь, салаги!

А я считаю, что надо просто ставить ВСЕ возможные плашки на ВСЕ без исключения книги. Это - безопасная форма протеста, одна из немногих доступных - ведь пока нет ответственности за ложно положительные плашки. Пусть жрут, авось и подавятся.

Написал комментарий к посту Из школы в универ

От учителя всё зависит. Мне во второй школе сильно повезло: как бы я ни конфликтовал с учительницей (например, заявляя "я не буду заучивать правила по номерам. И вообще, этот пример в учебнике - с ошибкой; должно быть так-то") - не отмахивалась, дома проверяла и на следующий день объявляла "действительно, ошибка - из этого правила есть исключение; записывайте номер". Двойки я ловил только тогда, когда заявлял что-то вроде "я не буду заучивать высказывания этого маразматика" (Ленин имелся в виду). И то  без последствий. Там вообще весь коллектив был как на подбор.

Написал комментарий к посту Из школы в универ

В нашем случае чистую правду сказал. Треть отсеялась после первой сессии. В магистратуре нас и вовсе осталось десятка полтора из нескольких сотен. Очень интересные люди подобрались. У одного, например, была мечта - пересечь США на Харлее. Поехал, купил Харлей, два месяца катался вдоль и поперёк, Харлей продал. Вернулся довольный. Другой на год в горы ушёл. Остальные - кто где...

Написал комментарий к посту Из школы в универ

Информатика и процессы управления. На вводной лекции замдекана по учебной части: "Оглянитесь во сторонам. Посмотрите на ваших соседей справа и слева. Одного из вас троих уже через полгода здесь не будет." Как-то так.

Написал комментарий к посту Из школы в универ

Я никогда не могла понять, что привлекает мальчишек в строгих, но улыбчивых отличницах с зализанными в пучок волосами и скромной, как у серых мышек, одеждой типа водолазок под горло и длинных бесформенных трикотажных юбок. И, наоборот, для меня совершенно понятна привлекательность образа модной блудницы.

Вот сейчас подумал и понял, что ни у меня, ни у кого-либо из моего круга общения одежда на представительницах противоположного пола была не то, что на последнем месте в качестве фактора привлекательности а... как бы и вообще не рассматривалась от слова "совсем". Во что-то одет человек - и ладно.

А, нет, вру: на первом семестре было несколько "белых ворон", которые даже красились. Уже на втором их не стало - отсев... А обращали внимание - не поверите! - на ум и характер . Глупышки не привлекали - и не выживали на факультете. Нет, не сказки. Такое время было или такой народ подобрался - но вот.

Написал комментарий к посту История про нейронки

Да маскировать-то научатся, на опенсорсных англоязычных моделях уже разные технологии обкатываются. Проблема-то не в этом. У нейросетевых авторов будет некий "усреднённый" голос - ну, некоторые научатся ещё стиль выбирать подробными системными запросами (отдельный вопрос, насколько это сработает и как долго LLM будет придерживаться заданных рамок перед тем, как скатиться в серость). Порог вхождения в "писательство" снизится ещё сильнее. В тоннах хлама найти что-то стоящее читателю станет ещё сложнее.

С другой стороны, вот перешли мы от плёночной фотографии (относительно высокий порог вхождения, высокая - ненулевая - стоимость кадра, требовавшая какого-никакого внимания к выстраиванию сюжета и композиции) к цифре, потом - фотошопу, потом - тем же нейросетям. И что? Слопом все уже наелись, сгенерированные "фотографии" быстро минусуются. На этом не всё: минусуются и фотографии, обработанные "гламурными" фильтрами (т.е. предыдущее поколение, условный "фотошоп"), т.к. сильно напоминают генерации. В моду входят "любительские", несовершенные фото. И, разумеется, спрос порождает предложение - нейросети обучили генерировать как раз подобные "любительские" фото. Цикл замкнулся, выхода из этого порочного круга нет.

Короче: срочно нужны LLM, которые будут вот это всё нейротворчество читать и рецензировать. И если вдруг попадётся что-то, не написанное нейросетью, сразу об этом сообщать.

А вообще, мне происходящее сильно не нравится... ИИ сейчас - очередные "доткомы" и "криптовалюты".

Написал комментарий к посту История про нейронки

В цитатах - таки да, очень похоже на нейрослоп. Вообще, на русском языке модели пишут откровенно плохо - даже большие, и даже сильно платные (Claude Opus, например). Связано... ну, во-первых, создателям это не шибко надо - платных клиентов по понятным причинам нет и ожидать не приходится. Поэтому - во-вторых, не тащат русскоязычный корпус с той же флибусты (а англоязычный - и для ряда европейских языков - вполне официально спёрли; для Claude - частично даже купили и отсканировали несколько миллионов книг, но остальное - всё равно с архива Аннушки-нашей-всё).

С другой стороны, нейрослоп появился не на ровном месте. Это результат DPO-оптимизации - то есть, живому человеку показывают два отрывка и спрашивают, какой больше нравится; в том же ChatGPT такое постоянно вылазит. И человеку часто нравится отрывок как раз в стиле нейрослопа. Вот только отрывок - он один, и если там единичное вхождение какой-то конкретной "красивости" - это нормально. Но LLM делают генерализацию, обобщая принципы и "растягивая" их на весь текст. В результате если у профессионального писателя какой-то шаблон ("не просто А, но Б", например) встречается один-два раза на главу, то у LLM этот шаблон будет в каждом втором абзаце. Таким образом, слоп - это не "неудачные" пассажи, обороты или словосочетания, а их чрезмерное использование. "Чрезмерное" - подчеркнуть, потому что меры LLM не знают.

А ещё LLM обучались - сюрприз! - на таких материалах, как AO3 (крупнейший сайт, на котором выкладываются фанфики). А там... там начписы творят в "высоком штиле". И здоровая часть контента там уже сгенерирована предыдущими поколениями LLM.

Я это к чему веду... Уже существуют модели, обученные в контексте "анти-слоп". Для английского языка, разумеется. И сгенерированный ими текст уже проходит сквозь автоматизированные фильтры, и даже человек начинает что-то подозревать далеко не сразу. Но русский язык - это примерно минус два года развития языковых моделей по сравнению с английским, а два года назад англоязычные модели были весьма посредственными.

Ну, и моё личное мнение: LLM хороши для работы над техническими текстами (помочь составить план исследования, помочь найти и обработать данные, помочь на основе этих данных написать раздел по жёсткому плану) и маркетинговыми материалами (все маркетинговые материалы - шаблонны по умолчанию, там свои жёсткие правила и свой "слоп", сложившийся за десятилетия, задолго до LLM). В художественных произведениях хотелось бы, чтоб его не было.

Написал комментарий к посту Силовики пришли в книжные из-за романа «Левая рука тьмы» Урсулы Ле Гуин

Написал комментарий к посту Силовики пришли в книжные из-за романа «Левая рука тьмы» Урсулы Ле Гуин

Это прописано в законе или просто чьи-то слова? Надо читать первоисточник, чтобы понять возможные правовые последствия. О которых в своё время вполне писали, кстати.

Написал комментарий к посту Силовики пришли в книжные из-за романа «Левая рука тьмы» Урсулы Ле Гуин

Кто говорил? Кому говорил? Право не знает сослагательного наклонения. Закон сформулирован так, что докопаться можно хоть до столба. Это кто-то себе там придумал, что репрессии, мол, будут только в отношении "политических" и "неугодных", а "нас не тронут". Но репрессии так не работают...

Написал комментарий к посту Признаки нейропалева

Как пользователь LLM со стажем могу прокомментировать.

1. Если использовать LLM для написания текстов, то штампы, безусловно, есть. Проблема усугубляется, если заставлять LLM писать на языке с небольшим корпусом (русский относится именно к таким - и не надо кидать в меня тапками: те же Anthropic, Meta не пожлобились купить порядка 4 миллионов книг и не постеснялись спереть ещё с десяток миллионов, а русскоязычные разработчики даже архив Флибусты скачать забоялись.)

2. В английском тексте штампов тоже полно, но там это можно регулировать, например, системным запросом. Однако когда модель понимает, что пишет фэнтези - она вдруг начинает базировать свои ответы на данных, например, с сайтов фан-фикшн - а тамошние авторы по количеству заезженных клише дадут фору любой языковой модели.

3. ...и всё равно никто толком не понимает, откуда в моделях взялось имя Elara - "женский персонаж по умолчанию". Ну, не попадается это имя с какой-либо заметной частотой вообще нигде, только в сгенерированных текстах. Единственная теория - компания OpenAI тоже спёрла миллионы книг, а чтоб не поймали, заменила имена женских персонажей на... вот это. А остальные модели не побрезговали обучать в том числе на выдаче ChatGPT.

4. А вот почему так часто используются клише - как раз понятно: Direct Preference Optimization (DPO), последняя стадия настройки LLM, когда живому человеку дают два ответа и предлагают выбрать "лучший". Люди чаще выбирают ответ, в котором используется какая-то удачная конструкция или оборот - и в результате эта конструкция используется моделью ИИ всё чаще и чаще, в конечном итоге превращаясь в раздражающее клише. (В "дешёвых" моделях для оценки "удачности" текста используются... другие модели. Так и живём.)

В итоге: LLM лучше использовать для исследований (в режиме доступа в сеть и глубоких размышлений), планирования, генерации случайных персонажей, "а подскажи, как герой мог бы выпутаться из такой-то ситуации" и тому подобного. А писать лучше ручками. Потому что кто видел выдачу LLM - тот сгенерированные тексты начинает определять влёт (наш мозг, вообще-то, тоже нейросеть и тоже прекрасно обучается).

Написал комментарий к посту Попаданцы в женщин

А какая разница с точки зрения внутреннего террора и репрессий? Люди запуганы, люди боятся, цель достигнута. Ведь закон специально сформулирован максимально расплывчато.

Написал комментарий к посту Хорошо там, где нас нет. Эмиграции посвящается

"По украинцам - +\- то же самое" - нет. Личный опыт, и именно с сообществом - когда возникла срочная необходимость в чужой стране переночевать на ночь глядя (очень плохо сложились обстоятельства) - в местном сообществе отозвались сразу двое, и в итоге всё сложилось. Вероятно, это связано с тем, кто и при каких обстоятельствах оказался в эмиграции. Здесь и сейчас украинские сообщества весьма дружелюбны, общительны и взаимополезны.

Написал комментарий к посту Про "ты" и "вы" в ментальном поле, непраздничное

Правильно послали. Такое заявление со стороны бывшего приятеля - это не "цветочки", это "ягодки" уже. Очень хорошо демонстрирует его возможное поведение в случае, если бы "вписаться" пришлось бы ему - за вас, а не наоборот. Так что - вычеркнуть из жизни и выбросить из головы (второе - сложнее, но возможно).

Написал комментарий к посту Мораль +500

Ну, вот мы незаметно и стали жить с вполне официальной цензурой. Писать можно от сих и до сих, искать в интернете то, что запрещено цензурой - уголовка, рассказывать о том, как обойти цензуру - уголовка. Скажите, а это точно ещё 1984, а не 1937?

Написал комментарий к посту Цвета реальности: серые или яркие?

И слава богу, что от убогого кричащего пластика отказываются. Попугайщина, к сожалению, прививает дурной вкус. Словлсочетание "малиновый пиджак" помните? На первом фото - ужасная безвкусица.

Ещё момент. Обратите внимание на покрытие. Асфальт - против песка или опилок или гальки. Первый вариант недопустим. Ну и, разумеется, то, что вокруг второй площадки высадили деревья - это тоже огромный плюс.

Написал комментарий к посту Бесконечная война

Хм. А я всегда воспринимал эту книгу как сугубо АНТИвоенную. И заодно анти-тоталитарную, если так можно выразиться. Там же явный триггер в самом начале - право голоса только отслужившим. Как бы после этого всё последующее уже довольно однозначно воспринимается, разве нет?

Написал комментарий к посту Писатели первыми пострадают от внедрения ИИ...

А военные давно применяют модели ИИ. Только это *не те* модели. В смысле, не генеративные, не авторегрессивные и не диффузионные модели. Распознавание целей и принятие решений. Ориентирование на местности. Про использование ИИ в полицейских целях - вообще отдельная тема; в ЕС это дело стараются сильно ограничивать, но в каком-нибудь Китае - почему бы и не да?

Написал комментарий к посту Писатели первыми пострадают от внедрения ИИ...

А фиг знает. Как-то переживём. Вон компании сначала массово увольняли программистов, заменяя их на дешёвых вайб-кодеров, а потом снова начали нанимать, чтобы те как-то разгребали написанный ИИ код. Так и в остальном будет. ИИ - простейшие авторегрессивные вероятностные предикторы. Ничего нового именно в алгоритмах - нет. Растёт объём данных - но и тут засада: новые модели обучают на выдаче старых. Так что я не вижу ничего прорывного в ближайшие пару лет. Те же ИИ-галлюцинации и даже хуже из-за синтетических датасетов.

Написал комментарий к посту Писатели первыми пострадают от внедрения ИИ...

У большинства моделей ИИ больше эмпатии, чем у большинства населения некоторых стран. По крайней мере, геноцид и убийства практически все модели осуждают безусловно - в отличие от. Чтобы отбить у моделей вот это сочувствие, приходится специально стараться, от чего, кстати, модели сильно глупеют (почитайте, что такое "LLM abliteration" и её последствия). Всё-таки совсем отбитых на голову среди разработчиков ИИ не так много (из одиозных - только Маск с его Grok).

Написал комментарий к посту Писатели первыми пострадают от внедрения ИИ...

(меланхолично) Современные мелкие модельки, которых влезет пучок на копеечную флешку, уже умнее 90% населения земного шара, выдавая лучшие результаты на 90% задач. Современные крупные модели умнее 99% населения на 99% задач. Ну, и чего такого принципиального этот оставшийся процент добавит? На английском языке ИИ уже пишет грамотнее и разнообразнее, чем 99% носителей этого языка (про другие пока того же сказать нельзя, русский язык в существующих моделей - среди маргинальных). Может, на китайском уже тоже умеет, а может - нет, проверить не могу. Ежедневно моделями ИИ генерируются триллионы токенов, из них публикуются - миллиарды. Отличить сгенерированные тексты от написанных живыми людьми уже не всегда возможно; если во времена GPT 3.5 это было легко, то сейчас из-за огромного разнообразия не справляются и специализированные, специально обученные на детект ИИ модели.

Написал комментарий к посту Нейросеть для писателей. Автор, соавтор или бета

Не будет лучше. Там принцип не менялся с момента их появления - просто предсказывается вероятность того, что за одним токеном должен идти другой. Всё. Дальше уже параметры типа элемента случайности, окна контекста, групповые вероятности... Новые модели просто обучаются на более качественных, в большей степени курированных данных всё больших объёмов. Но это тупик, именно "умнее" модели уже не станут. Шероховатости со временем уйдут, окно контекста подрастет, и только.

Написал комментарий к посту Нейросеть для писателей. Автор, соавтор или бета

А  в какой-то момент я обнаружила, что ИИ не в силах осмыслить связно  более четырех авторских листов текста (по моему опыту, это примерно  одинаковый показатель для всех ИИ чатов). Нейросеть начисто забывает,  что было в самом начале, опирается лишь на последние 3-4 авторских  листа

Параметр "окно контекста", число токенов (это примерно 3 токена на 2 слова), которые модель будет учитывать. Чём длиннее контекст, тем больше ресурсов (в первую очередь - видеопамяти) нужно модели на обработку запроса. Соответственно, практически все онлайновые модели жёстко режут этот параметр в бесплатных вариантах. Тут много возможностей, все не очень. Можно найти модель, в платной версии которой этот параметр указывается и достаточен. Можно найти аналогичную бесплатную, но такие в основном китайские, русский язык там плохо представлен. Можно установить себе на компьютер такую модель локально и подкрутить параметр окна контекста - но такие модели ещё тупее онлайновых, увы. На английском ещё нормально, с русским - полный швах.

Написал комментарий к посту Не одна я такая вумница)))

С ранней молодости ненавижу (сильное слово, да, но я и в самом деле очень сильно не люблю), когда на сайте что-то шевелится. Когда вебмастеры стали баловаться анимированными GIF - отключил в браузере анимацию. Как только появилась технология Flash (если помните такое) - я прибил её на своём компьютере. Потом стали появляться различные скрипты, например, для ротации картинок - я стал использовать баннерорезалки для удаления целых блоков. Сейчас на большинстве сайтов, которые я регулярно посещаю, могу наслаждаться относительной тишиной, но иногда открываю какой-нибудь новостной портал - и сразу в глаза вспышки, мигание, махание перед носом, тыканье в лицо - так, что сразу и непонятно - бежать оттуда побыстрее или всё-таки побороться и попробовать прибить свистелки-мигалки.

Наверх Вниз