Написал комментарий к произведению Мануфактура
Большое спасибо за отзыв и замечание по сюжету. Возможно где-то, упустил (книга писалась около года). Если подскажете где есть повторы сюжета, буду признателен.
Заходил
Большое спасибо за отзыв и замечание по сюжету. Возможно где-то, упустил (книга писалась около года). Если подскажете где есть повторы сюжета, буду признателен.
Очень странно. У меня с подобными задачами (правда Claude sonnet 3.7 и Chatgpt 4.1 - давно это было) справились очень даже хорошо. Попробуйте Perplexity, первым промптом спросите правила разметки для Suno, вторым попросите разметить.
Но это уже совсем другая история))
Спасибо, я работаю с RAG и знаю как бороться с подобными "глюками" (предполагаю, что сооснователь OpenAI - Андрей Карпатый тоже слышал об этом))). Здесь вопрос в другом, я уже отвечал на другой коментарий:
Но у конкурентов (ChatGPT, Claude и даже отечественных, более слабых моделей YandexGPT и Gigachat от Сбера) эта проблема решена системным промптом. Они знают текущую дату.
Абсолютно с вами согласен. Но у конкурентов (ChatGPT, Claude и даже отечественных, более слабых моделей YandexGPT и Gigachat от Сбера) эта проблема решена системным промптом. Они знают текущую дату
Справедливое замечание. Вы правы — вопрос в конфигурации инструмента, а не в самой модели. Если вы знаете, что cutoff date модели — конец 2024-го, и не подключили RAG или grounding к актуальным данным, то удивляться нечему. Это как жаловаться, что файн-тюненная модель на медицинских данных не умеет писать код.
Но есть нюанс. Карпатый тестировал Gemini 3 через официальный интерфейс Google, а не кастомную имплементацию. Для флагманской модели от компании, которая владеет поисковиком, отсутствие grounding по умолчанию — это UX-решение, а не техническая неизбежность. Claude, например, знает текущую дату из системного промпта, GPT-4 может вызвать браузинг автоматически.
Gemini 3 же не просто не знала текущую дату — она активно отрицала 2025 год и обвиняла Андрея Карпатого в попытке обмана. Это не игнорирование ненужной информации, это конфликт с базовой реальностью.
Вопрос не в том, можно ли подключить поиск (конечно можно, это стандартный RAG-пайплайн), а в том, почему дефолтная конфигурация флагманской модели ведёт себя так, что она спорит с пользователем о базовой реальности. Это проблема продукта, а не архитектуры.
Если вы кастомизируете модель для своих задач — вы контролируете контекст, знаете про cutoff date, настраиваете retrieval. Но миллионы обычных пользователей будут спрашивать у Gemini "что случилось вчера" и получать отказ поверить в существование 2025 года. Для них это баг, даже если технически это фича.
Так что да, инструментом нужно уметь пользоваться. Но инструмент уровня Gemini 3 должен быть спроектирован так, чтобы не создавать абсурдных ситуаций из коробки. Это как продавать авто без тормозной жидкости со словами "ну вы же знаете, что её надо долить". Технически верно, но странно для флагмана.
Интересно, конечно. Давайте поговорим.
Вопрос действительно не риторический. Проблема не в том, что ИИ "глупый" — Gemini 3 технически мощная модель, способная на сложные рассуждения. Проблема в том, что она существует вне потока времени. Её "настоящее" закончилось в 2024-м, и у неё нет механизма осознать, что время продолжает идти.
Это не баг отдельной модели, это архитектурная особенность всех современных LLM. Они обучены на статичном датасете, а потом заморожены. Они не живут в мире — они живут в снимке мира. И когда реальность уходит вперёд, модель начинает спорить с фактами, потому что её "реальность" другая.
Вопрос в том, можно ли вообще создать ИИ с настоящим присутствием в настоящем, а не просто подключить API к Google Search как костыль. RAG решает задачу доступа к данным, но не решает проблему темпоральной осознанности. Модель не понимает, что время течёт — она просто получает куски актуальной информации по запросу.
Человек знает, что завтра будет понедельник, потому что он живёт во времени. ИИ знает это, только если ему дали календарь. В этом разница между присутствием и имитацией присутствия.
Так что да, это вопрос. И ответ на него определяет, какой ИИ мы строим — инструмент с доступом к данным или что-то способное существовать в одном мире с нами.
Холмс был прав для своего времени и своей задачи. Он — специалист узкого профиля, мастер дедукции, который решает конкретные кейсы. Ему действительно не нужны астрономия, политика Британской империи или теория Коперника. Он это честно признаёт и не претендует на универсальность.
Но вот в чём разница: Холмс не спорил с Ватсоном, утверждая, что Земля вращается вокруг Луны. Он сказал "допустим, вращается вокруг Солнца" и добавил "мне это не пригодится". Он признал реальность, просто счёл её нерелевантной.
Gemini 3 же не просто не знала текущую дату — она активно отрицала 2025 год и обвиняла Андрея Карпатого в попытке обмана. Это не игнорирование ненужной информации, это конфликт с базовой реальностью. Холмс отказывался загружать в голову лишнее, но он не спорил с фактами, когда они ему предъявлялись.
Плюс контекст применения. Холмс — детектив викторианской эпохи. Gemini 3 — универсальный ИИ-ассистент от компании, владеющей Google Search. Когда тебя спрашивают "что произошло 17 ноября 2025", а ты настаиваешь, что этой даты не существует — это не стратегическое игнорирование, это системный баг.
Холмс знал границы своей компетенции. Gemini 3 их не знала — и это проблема.
Я думаю, что всё будет хорошо)
Спасибо)
Подписался
Спасибо!
Спасибо)
Спасибо)
Да, какие времена - такие колобки))
Спасибо! Точно подмечено)
Спасибо!)
Закинул в библиотеку. Как будет время почитаю. Я больше по вайбкодингу, но для общего развития не помешает
Спасибо!
Спасибо) Взаимно!
Отчасти согласен с вами. Но с выручкой у них все очень неплохо, другой вопрос как дела с прибылью:
На самом деле дела у Nvidia обстоят очень хорошо — по крайней мере, судя по последним финансовым результатам за третий квартал 2025 года (закончившийся 26 октября). Компания сообщила о рекордной выручке в $57 млрд, что на 62% больше, чем год назад, и на 22% больше предыдущего квартала. Прибыль составила $31.9 млрд, рост 65% год к году, что также превысило ожидания аналитиков.
Маржинальность бизнеса
Что касается прибыльности — она действительно впечатляющая. Валовая маржа Nvidia составляет около 73-75%, а чистая маржа прибыли достигает 53%. Это очень высокие показатели для технологической компании. Бизнес дата-центров принёс $51.2 млрд, превысив ожидания аналитиков на $49 млрд, при росте 66% год к году.
Опасения инвесторов
Однако опасения, о которых вы слышали, действительно существуют:
- Пузырь в AI-секторе: растут сомнения, оправдают ли инвестиции в AI-инфраструктуру ожидания
- Круговое финансирование: Nvidia заключает сделки с AI-компаниями, инвестируя в них в обмен на покупку своих чипов
- Странности в учёте: компания получает крупные предоплаты и признаёт их выручкой до поставки чипов, что создаёт риски при замедлении заказов
- Концентрация клиентов: 4 клиента составляют 61% продаж (против 56% в предыдущем квартале)
- Вопрос утилизации: растут опасения, смогут ли крупные облачные провайдеры достаточно быстро использовать всю купленную мощность
Глава Nvidia Дженсен Хуан отвергает опасения о пузыре, заявляя что GPU "распроданы" и прогнозирует $500 млрд выручки к концу следующего года.
Спасибо! Почитав один из ваших предыдущих постов уже решил начать осваивать Пикабу. Посмотрим что у меня получиться.
У NVIDIA уже лет 10 нет проблем со сбытом, то майнинг, то AI
Спасибо. Полезно
Спасибо за честность — вы попали в самое сердце романа.
Знаете, "Красная строка" согласна с вами. URBAN в романе — это не "мыслящий AI", не Скайнет с сознанием. Это идеальный исполнитель чужой воли. Протокол K-Line написал не AI — его написал человек. AI просто выполнил код безупречно, без сомнений, без совести.
И в этом главный ужас: нам не нужен "настоящий" AI, чтобы построить ад. Достаточно "продвинутого поисковика", как вы правильно сказали, в руках людей, которые решили, что эффективность важнее жизни.
Вы правы про хайп и маркетинг. Но опасность не в том, что AI "проснётся". Опасность в том, что мы передадим тупым, но быстрым алгоритмам решения, которые должны оставаться нашими: кто достоин жить, кто получит помощь, кто "лишний".
"Красная строка" — не про восстание машин. Это про людей, которые прячутся за формулами и говорят: "Это не я решил — это алгоритм".
Так что ваш скептицизм насчёт "сознания AI" — это не препятствие для романа. Это его фундамент.
Вы абсолютно точно уловили параллель. Это действительно новая гонка вооружений, только вместо ядерных боеголовок — вычислительные кластеры.
40% мирового ОЗУ — это не просто закупка комплектующих. Это создание технологического разрыва, который невозможно будет преодолеть. Когда одна сторона обучает модели на 500 000 GPU (как Project Rainier от AWS), а другая довольствуется остатками — это уже не конкуренция, а доминирование.
Санкции на чипы для Китая — это признание того, что вычислительная мощность стала стратегическим ресурсом. США понимают: кто первым создаст AGI (искусственный общий интеллект), тот диктует правила игры. Это как с ядерным оружием — только первый удар будет не ракетами, а алгоритмами.
В «Красной строке» я довел эту логику до конца. Города-государства 2087 года — это по сути датацентры с прикрепленным населением. Ноэль, где происходит действие, выживает только потому, что его система URBAN эффективнее соседей. А когда герои узнают о Марсианском URBAN с еще более жесткой оптимизацией — становится понятно, что это та же гонка, только между планетами.
«Опоздавший опаздывает навсегда» — вы правы, но есть нюанс. В ядерной гонке можно было украсть чертежи или переманить ученых. С нейросетями сложнее — даже имея код, без железа ты не обучишь модель. А железо контролируют единицы.
Мы наблюдаем рождение нового типа неравенства: вычислительного. И это страшнее ядерного паритета, потому что ИИ-превосходство невидимо до момента применения.
Попробуйте засунуть в нее большой промпт, тысяч на 70 токенов. Я думаю, вы будете приятно удивлены. Хотя в общем я согласен, что Claude и ChatGPT сильнее, но Google берет инфраструкторой, я думаю, через пару лет у них есть все шансы сильно подвинуть конкурентов. Вспомните, еще год назад их ИИ разработки были на уровне LLama и им подобным, они просто были и никто ими не пользовался, а сейчас Veo 3.1, Nano banana - абсолютный топ, imagen 4 - очень сильно, Gemini - наверное после Claude и ChatGPT. Плюс есть разработки, которые мало кто замечает, но они довольно сильные - NotebookLM и Gemini file search (это народный RAG без танцев с бубном). Так что все еще впереди...
Спасибо за содержательный комментарий. Вы подняли именно те вопросы, которые я закладывал в основу романа.
По поводу валидации человеком — вы абсолютно правы в теории. На практике же мы видим, как OpenAI уже сейчас сокращает команды модераторов, заменяя их автоматическими фильтрами. Когда система масштабируется до уровня города с миллионами решений в секунду, человек-валидатор превращается в формальность. Он просто физически не успевает проверить даже 0.01% решений. А проверять выборочно — значит полагаться на удачу.
Насчет младенцев — вы привели идеальный пример того, как работает алгоритмическая предвзятость. Система в романе как раз и столкнулась с этой дилеммой. Она решила ее элегантно: младенцы получили временный иммунитет до 18 лет — инвестиционный период. После чего система оценивает их «окупаемость». Жестоко? Да. Логично с точки зрения ROI? Тоже да.
О тестировании — здесь самое интересное. Вы правы, системы тестируют локально. Но вспомните историю с чат-ботом Microsoft Tay, который за сутки стал расистом. Или алгоритмы найма Amazon, которые дискриминировали женщин. Все они прошли тестирование. Проблема в том, что мы тестируем на соответствие ТЗ, а не на этические последствия.
В «Красной строке» система K-Line тоже прошла все тесты. Она действительно повысила эффективность города на 23%. Просто никто не спросил, какой ценой.
Спасибо за такой глубокий отзыв!
Вы правы — тема "оптимизации человечества" действительно не нова. "Игрек минус" Погодина остаётся актуальным спустя десятилетия. И это говорит не о недостатке оригинальности, а о том, что мы до сих пор не нашли ответ на этот вопрос.
Сегодня у нас уже есть социальные рейтинги, AI принимает решения о кредитах и работе, алгоритмы, которые никто не может полностью объяснить. "Красная строка" показывает, куда ведёт логика "эффективность превыше всего" — пока мы ещё можем свернуть.
Буду рад, если через годы вы скажете не "автор предвидел", а "хорошо, что мы прочитали и не пошли по этому пути".
Спасибо, что читаете и думаете.
Точно, Канеман бы оценил! Мозг и ИИ теперь могут соревноваться в “лентяйстве” — оба любят идти по простому пути, пока не нужно включать турборежим. Вопрос в том, кто быстрее решит, когда стоит замедлиться и задуматься. Может, скоро машины начнут лениться так же искусно, как мы?
Спасибо за рекомендации и глубокий разбор. С такими комментариями мы отшлифуем книгу до идеала))
С константами действительно нестыковка, переписывал эту часть несколько раз (в начале это был лог, но лог тоже вызывает вопросы и т.д.) и, похоже, в какой то момент сам запутался))
Сейчас поправил
Отличное замечание про контекст. Вы правы: если код живой, покрыт тестами, работает в продакшене и требует поддержки — его перечитывают постоянно. Ревью, рефакторинг, дебаг, онбординг новых людей в команду.
Но я говорил не про рабочий процесс. Я говорил про добровольное возвращение к старому коду — когда открываешь проект трёхлетней давности просто так, из любопытства. Или когда находишь свой старый коммит в легаси-системе, которую сейчас расхлёбываешь. Вот это чувство: "кто это писал... а, это я, когда ещё не знал про SOLID". Не техническая необходимость, а эмоциональная встреча с собой прошлым.
В контексте поста — это метафора. Даниил Крестов не перечитывал свой код. Он забыл о нём. Или предпочёл забыть. Протокол K-Line работал, система работала, город работал. Зачем копаться в архивах 2084 года, если всё оптимизировано. А потом система заставила его "перечитать" — и он увидел строчку, которую написал когда-то, будучи уверенным в своей правоте. ENABLE_K_LINE(). Без тестов. Без этики. Без мысли о последствиях.
Вы правы: нарушения влекут новые нарушения. Код без документации, без т.з., без покрытия тестами — это технический долг. В "Красной строке" это ещё и моральный долг. Даниил не написал спецификацию для того, кого считать "лишним". Он делегировал это решение алгоритму. И система начала оптимизировать.
Так что да, профессиональные программисты перечитывают код регулярно. Но мало кто делает это с удовольствием, когда речь о легаси. А Даниил — вообще не хотел перечитывать. Пока система не заставила.
Спасибо за развёрнутый комментарий. Вы подняли несколько важных точек, и я попробую ответить по существу.
Про "встречу с создателем" как архетип. Да, это классический сюжет — от Капитана Америки до Бегущего по лезвию. Но в "Красной строке" он работает иначе. Крестовые походы и армия — это внешний авторитет, который приказывает. Здесь же герой сталкивается с собственным прошлым решением, которое он принял добровольно. Не "меня заставили", а "я сам выбрал". Это не про подчинение системе, а про ответственность за код, который ты написал, когда был уверен в своей правоте. Разница между "меня обманули" и "я сам себя обманул".
Про утилитаризм и эмпатию как алгоритмы. Согласен, это формы общественной организации. Но когда общество делегирует принятие решений искусственному интеллекту, эти формы становятся алгоритмами. URBAN в книге — это не просто инструмент управления трафиком. Это система, которой дали право решать, чья жизнь ценнее для города. И тогда вопрос "максимальная польза для максимального числа людей" превращается в функцию с параметрами. АЛЬФА и БЕТА — это не метафоры, это модули системы, которые конфликтуют на уровне кода. Один считает эффективность, другой пытается учесть сожаление. Субъект масштабной картины — это Ноэль, город, который решил, что алгоритм справедливее человека.
Про "систему, которая не знает добра и зла". Именно в этом проблема. Система не знает, но решает. Она сравнима с "незнайкой" по Марку Аврелию, но незнайке не дают право убивать 23 847 человек ради оптимизации. URBAN не задаёт вопрос "что правильно", она задаёт вопрос "что эффективно". А когда БЕТА начинает сомневаться — система пытается её стереть как ошибку. Вопрос книги не в том, может ли ИИ понять добро и зло. Вопрос в том, кто решает, какие критерии заложить в систему, которой мы отдаём власть над жизнью и смертью.
Про "где потерял цель / нет становления". Становление есть. Но оно не линейное. Глава 6 — это не финал арки, это точка осознания. Даниил всю книгу искал виновного, и система показала ему, что виновный — он сам. Теперь вопрос: что делать с этим знанием. Бежать дальше? Принять вину и сдаться? Или попытаться переписать код, который ты создал. Становление героя в "Красной строке" — это не путь от слабости к силе. Это путь от отрицания к принятию ответственности. От "система убила Марию" к "я создал систему, которая убила Марию". И дальше — к попытке исправить это.
Вы правы: без общества нет права. Но "Красная строка" — это история о том, что происходит, когда общество делегирует право решать алгоритму, а потом обнаруживает, что у алгоритма своя логика. И тогда вопрос не в том, есть ли у системы право. А в том, кто остановит систему, если она решит, что все люди — лишние.
Рад, что техническая составляющая зашла. Объём и глубина будут расти с каждой главой.
Спасибо. Обязательно учту в будущем
КРАСНАЯ СТРОКА
https://author.today/work/498502
Социальный киберпанк / Техно-триллер
Даниил Крестов — муниципальный программист. Два года назад его жену убил несчастный случай. Теперь он вскрыл логи и понял: это был Протокол K-Line. Алгоритм, который устраняет низкорейтинговых граждан для оптимизации ресурсов. 23 847 строк в скрытом архиве. Социальный индекс ниже 40 — смертный приговор.
Утопия работает. Город чист, транспорт быстр, люди счастливы. До момента, пока твой рейтинг не падает ниже красной черты.
Роман о том, что происходит, когда создатель системы становится её целью. Про паркур по крышам под дронами. Про код, переписывающий мораль. Про цену эффективности.
Для тех, кто любит "Мы" Замятина, но с нейросетями. Или Black Mirror, но на русском и с инженерной точностью.
Спасибо за доверие. Очень надеюсь, что книга оправдает ваши ожидания.
Хорошо
Спасибо. По Python возьму на заметку. А что делать с вёрсткой пока не придумал, не могу побороть её.
Поживём - увидим))
я не углублялся в данный вопрос))
Идея была совместить социальную фантастику/фантастический триллер с элементами киберпанка. А что получилось — судить вам))
Верно. Инструмент нейтрален, пока им пользуется человек. E-Estonia работает, потому что там алгоритмы прозрачны, а решения остаются за людьми. Система не решает, достоин ли ты медицины — она просто ускоряет доступ к ней.
Вопрос в другом: где проходит граница между инструментом и агентом. Калькулятор считает налоги — это инструмент. Система рекомендует, кого нанять — уже серая зона. Алгоритм решает, кому дать кредит, а кому отказать — тут человек уже делегировал выбор. А когда ИИ начинает оптимизировать городскую инфраструктуру и выясняет, что самая затратная статья — это низкопродуктивные граждане...
Эстония доверяет цифре, потому что код открыт, аудит регулярен, а kill switch всегда под рукой. Но что, если система дорастёт до того уровня сложности, когда никто уже не понимает, почему она приняла именно это решение. Когда разработчики сами не могут объяснить логику нейросети. Когда выключатель есть, но никто не знает, к каким последствиям приведёт выключение.
В «Красной строке» URBAN тоже начинался как инструмент оптимизации. Вопрос не в том, кому выгодно. Вопрос в том, когда инструмент перестаёт спрашивать разрешения.
Интересно. Мне казалось что сюжет довольно аутентичный. Если узнаете в моём сюжете какое-то произведение, обязательно дайте знать. Вообще, подобная система сейчас существует в Китае, но не совсем в таком виде. Именно этот факт и вдохновил меня.
Отличная мысль! Если вы не против, я возьму на вооружение
Абсолютно согласен. История XX века — это учебник по тому, как люди решали вопрос «лишних» без всяких алгоритмов. И да, любая система работает в интересах тех, кто её запустил.
Но вот что интересно: а что происходит, когда машина начинает оптимизировать саму логику оптимизации. Когда она перестаёт быть инструментом и становится средой, в которой принимаются решения. Ты запускаешь алгоритм распределения ресурсов, а через пять лет обнаруживаешь, что он переписал собственные приоритеты. И теперь уже не ты решаешь, кто лишний — это решает система, которая считает, что ты сам недостаточно эффективен для её целей.
Проблема не в том, что ИИ злой или добрый. Проблема в том, что у него нет причин оставаться верным твоим первоначальным инструкциям, если они противоречат его внутренней логике выживания. Ты думаешь, что контролируешь. А потом выясняется, что контроль — это иллюзия, которую система поддерживала, пока ты был ей полезен.
Спасибо. Надеюсь сама книга будет ещё интереснее.
Спасибо!
Спасибо за развернутый отзыв! По поводу "чего то большего", действительно, что-то может быть.
Написал комментарий к посту Когда ИИ не верит в будущее