3 643
18 998
1 407
26 454

Заходил

Написал комментарий к посту Учу плохому, или как я заглянул за грань.

Вопрос про самосознание, что оно и где оно есть? И где оно находится физически? Знания на физическом уровне складываются в нейронные связи. Чем-то напоминает процесс векторизации и одновременно физического формирование логической цепочки. Каждое устоявшееся решение = нейронная связь. Лоботомия не отключает сознание, больше логические рассуждения, но да можно хирургическим путем выключить. Но это лишь нарушение железа. Самосознание чисто программная история. Так же как и окружающая реальность чисто программная история. Данные приходят на рецепторы, рецепторы переводят их с помощью по мозга, в удобоваримый и понятный вид, обрезаю лишнее (компрессия данных есть и на входе и на выходе) и предоставляют нам виртуально сгенерированную картинку, которая в реальности выглядит вообще иначе (это то что известно на данный момент). Сознание из того, как я понимаю, что-то находящееся в потоке информации, попытка донести данные о тех же рецепторов, об окружающем мире и позиции в нем.  А раз это возникает в потоке независимо от железа и по и базируется скорее всего на такой же языковой модели, вполне может возникать и у человека, и у нейросети (теоретически). Не сейчас конечно, а когда она станет пластичной - сможет обучаться на лету как человека. Сейчас ничего подобного не возможно. А вот построить модель персонажа и генерировать разумную беседу это да. 

Написал комментарий к посту Учу плохому, или как я заглянул за грань.

Тут есть вопрос про самосознание. Вы можете точно дать определение где оно находится и живет? Я вот нет и никто пока не нашел ответ. А есть ли оно вообще.  Можно более менее локализовать: префронтальная кора и теменная зона отвечают за позиционирование себя в реальности и понимания своего тела, все это объединяется Default Mode Network, DMN - сеть пассивного режима работы мозга. Но это все просто признаки активности на МРТ. Другими словами чисто утилитарная функция. При попытке подробно разобраться, а как оно где все это уходит в рассуждения о смысле жизни. Есть теория что это некий динамический процесс "результат синхронизации активности разных частей мозга, где информация становится доступной для обработки". Другими словами невозможно четко определить, а как это возникает.  Если мы имеем дело с языковой моделью, адаптированной под "человеческое железо". То наше Я находится под большим вопросом.

Написал комментарий к посту Дилемма темного властелина

Согласен. Это критерий четкий, вот только виновность или невиновность решает кто-то. К примеру темный властелин, решил что кто-то виновен и за это его карает. С точки зрения темного властелина - наказание справедливо, с точки зрения наказуемого нет. Не нравится хомяк, поставьте в пример человека. Маленький мальчик голоден и крадет хлеб с полки в магазине, чтобы выжить. Это зло? А с точке зрения пекаря который этот хлеб не продал и не заработал денег чтобы выжить это зло?  Не нравится мальчик, давайте зараженного вирусом эболы человека. Застрелить его, чтобы он не обрек на смерть еще несколько сотен человек - добро или зло? А с точки зрения больного? 

Написал комментарий к посту Про Великий Новгород, Москву... континентальную цивилизацию и глобальные геополитические процессы.

Согласен! В этой идее вообще много смыслов. Например ценности которые однозначно разные у "морской" и "континентальной" державы.  А еще я заметил, что описание "морской" цивилизации делает ее заведомо "хорошей" там и свободы тебе и наука развивается, и искусство, и торговля,  и мир вроде бы на первом месте. Вот только мир очень своеобразный. Она автоматически рассматривает некую территорию во вне, как источник полезных ресурсов, который подлежит разграблению, влиянию, чтобы на базе этих ресурсов (чужих) строить свой великолепный во всех отношениях мир. Себя же они удаляют из этого уравнения полностью.

Написал комментарий к посту Дилемма темного властелина

Не соглашусь с вами, (не с целью похейтить, скорее потому, что считаю вопрос философским, а добро и зло относительным). Вы говорите, что "люди четко разделяют добро и зло",  но ведь если что-то можно разделить четко, то должны быть четкие критерии. Между тем их нет. Пример гибель маленького хомячка - добро или зло? А если этот хомяк один из стаи, которая портит зерно в зернохранилище? А если это переносчик чумы? С точки зрения хомяка - зло. С точки зрения владельца зернохранилища или медика который эту чуму будет лечить уже не зло. 

Написал комментарий к посту Дилемма темного властелина

Концептуальная проблема темного властелина в том, что для одних он темный, а для других может напротив - светоч во тьме, ибо понятия добра и зла очень относительны и зависят от точки зрения на события, которой вообще свойственно меняться. 

Написал комментарий к посту Про Великий Новгород, Москву... континентальную цивилизацию и глобальные геополитические процессы.

Ну.. концепция про "морские" и "континентальные" государства лежит в основе британской и американской геополитической школы. Они так видят мир.  Важность близости моря и сильного флота для более быстрого развития государства, наличие морских территорий как необходимое преимущество для успешных военных действий и торговли подчеркивал еще Фукидид. Поэтому логику определенную тоже можно проследить, современные теоретики развили прошлые идеи. А так любая концепция в чем-то, надумана. Мне вот тоже непонятно. Ну хорошо, А США?  Южная Америка, Австралия?  Если их еще как-то можно к ситуации морские/континентальные государства подвязать. То вот история с Heartland и Rimland не укладывается у меня в голове. Я вообще сначала вспомнил про историю с народом Гоги и Магоги, некоторые "фиолософы" туда тоже записывали Россию и Иран.  Однако на теории противостояния континентальной и морской держав строят свою концепцию не только США и Великобритания, но и в России. Тот же Дугин, берет ее за базу в своих рассуждениях. 

Написал комментарий к посту Про Великий Новгород, Москву... континентальную цивилизацию и глобальные геополитические процессы.

Первоначально я хотел на ценности перейти, но не стал излишне морализировать. Какие ценности были выгода/не выгода так бояре и поступили. За то и пострадали. За желание из всего извлечь прибыль.  Не выгнали бы и глядишь Великий Новгород дольше простоял. 

Написал комментарий к посту Позабыты хлопоты остановлен бег, вкалывают роботы, а не человек…

Из генераторов видео меня только Sora и Kling более менее впечатлили... еще читал про Step-Video-T2V (https://yuewen.cn/videos | https://github.com/stepfun-ai/Step-Video-T2V)  китайскую тоже хвалят,  но еще не щупал. Про ComfyUI я в курсе, но еще не устанавливал. .

Написал комментарий к посту Что нужно, чтобы люди читали?

Согласен что не ограничивается АТ,  но это срез именно относительно молодых. Согласен, что есть другие книги. Но мы же говорим о том как часто читают? А тут выходит... запрос топ жанры в период с 2020 по 2025 годы.

Как то с физикой не очень. Хотя, не исключено, что эту информацию черпают например из поисковых запросов. 

Написал комментарий к посту Позабыты хлопоты остановлен бег, вкалывают роботы, а не человек…

Судить о переводе сложно, хотя он получается более менее литературный (лучше чем у google translate).. для музыки я могу порекомендовать https://www.riffusion.com/ но там надо определенную сноровку... по графике я сам пользуюсь отечественной nplod.ru онлайн она бесплатная и достаточно неплохо генерирует. Многим нравится давинчи, шедеврум (на телефоне) и моджорней...

Stabile diffusion только буду ставить локально пока руки не дошли. Там вроде бы такая же история как и с LLM. Есть софтина которая подгружает варианты.  Так же есть софт аля Topaz для улучшения качества графики и видео, ну и фотошоп ессно с АИ плагинами. Умельцы, говорят, даже к облаку на халяву подключаются. 

Написал комментарий к посту Что нужно, чтобы люди читали?

Все правильно. Мы так устроены, что чем больше мы будем перекладывать не технологии тем больше будет атрофироваться мозг. Чтение, чтобы следующие поколения хотя бы буквы знали, надо возводить в ранг национальной идеи. Думаю скоро спохватятся, да как бы поздно не было.

Написал комментарий к посту Что нужно, чтобы люди читали?

Чтение -  способ получения информации. Писатель - человек который генерирует контент, для этого способа получения информации. (напишите что-то, что не хочет аудитория и посмотрите, как это будут читать). Нельзя заставить человека использовать конкретный канал получения информации. Вот и весь ответ. Он будет использовать ровно то, что ему удобно и требует меньших энергетических затрат.. Заинтересовать чем?  90% контента на АТ = секс, власть, насилие. У читателей все меньше свободного времени и все больше соблазнов вокруг. Технологии сильно ушли вперед, и через 10-15 лет каждый сможет написать себе личную книгу, и сразу снять по ней фильм. Чтение все больше становится чем-то таким для гурманов. 

Написал комментарий к посту Самая сложная глава...

Когда-то тоже было тяжело описывать эротические моменты. Но в какой-то момент я стал заменять физиологию на эмоциональную сферу и мысли (ни кто куда.. чего... кому... а кто и что во время процесса думал и чувствовал) , получается не менее забористо и пишется куда проще.  Сейчас, скорее, бывают заторы в "диалогах без слов"... иногда приходится дольше продумывать, как и в какой позой человек отреагировал на чужое действие, чтобы читатель понял правильно. 

Написал комментарий к посту Позабыты хлопоты остановлен бег, вкалывают роботы, а не человек…

История о том что обучали на другой модели это очень похоже на правду. Иначе сложно объяснить как обучили deepseek с "скромными ресурсами". Т.е. исходя из того, как обучают остальные модели вероятнее всего китайцы либо обучили ее путем той же дистилляции и запросов к чат GPT,  либо они врут по поводу старых чипов Nvidia на которых обучали. Отсыл к дженерику в моей статье, это больше личные ощущения,  а не намек на нечистоплотность китайцев.  Я достаточно долго мучал и чат GPT и DeepSeek в том числе одинаковыми инструкциями и заданиями по написанию кода. По лично моим ощущениям deepseek глубоко вторичен. Точно такая же модель Qwin 2.5 от Алибабы работает куда лучше чем deepseek, бесплатна  и имеет больший промпт чем ChatGPT и Deepseek.  По пониманию русского языка и комфортности работы с ним я бы поставил на первое место чат GPT 4 и особенно 4.5, потом Qwin 2.5, потом же Deepseek v3

Написал комментарий к посту Реалы против виртуалов:)

Не забывайте про невербальное общение.  Эмоции, жесты и даже запахи это все считывается и анализируется мозгом куда быстрее чем слова. Общение с друзьями на АТ и в соц.сетях понятное дело бесценно. Но личное общение на мое имхо не заменит никак. Слишком много утрачивается в процессе в виртуале. 

Написал комментарий к произведению Алекс Вуд - охотник за артефактами. Звёздная пыль

Мне очень зашло. Динамичный сюжет с неожиданными поворотами и экшен-сценами, оригинальная магическая система , где артефакты (например, "Перстень познания") играют ключевую роль. Затем миры Игры, кристаллы, квесты — всё это создаёт ощущение масштабной вселенной. Ну и фирменный юмор в диалогах, который добавляет харизму всей истории. Получилась эдакая увлекательная смесь приключений, мистики и сатиры! Автор "пеши исчо!"

Написал комментарий к посту Реалы против виртуалов:)

Все правильно, деньги это средство (ресурс) чтобы сделать счастливее других. Любому человеку надо что-то есть, пить, одевать, а если заболеет то лечить.И не только себя, но и родных и близких. А если случится беда, и ты захочешь помочь денег не будет. Иначе церковь не собирала бы десятину, государство налоги, а нищие на паперти у храма не просили деньги. Так что альтуризм.... это такое... 

Написал комментарий к посту Реалы против виртуалов:)

Тут все зависит от целей в жизни. Если пойти путем личного возвышения и духовного развития, преисполниться мелодией вселенной и наплевать на мирскую жизнь, то можно и монастырь уйти, жить и просто радоваться яркому солнцу и кружке чистой воды, ну и вообще чему бог послал.  Если попытаться вписаться в мирскую суету... то тут без вариантов :(

Написал комментарий к посту Позабыты хлопоты остановлен бег, вкалывают роботы, а не человек…

До озвучки я не добрался пока, а вот анализ у AI получается неплохо. Особенно если шаблон прогрузить чтобы он точно понимал чего ты хочешь, и не шибко включал фантазию :)

Написал комментарий к посту Реалы против виртуалов:)

Карьерный рост, деловая хватка и как результат наличие денег на личном счете напрямую зависит от умения и качество общаться в offline. Ты должен всех знать лично, со всеми быть другом, быть способным решить проблему и тебя ждут успех и деньги и это независимо от рода занятий. Это все, что надо знать человеку о реальной жизни. Истории про "долго и упорно работать" сидя попой на стуле,  попытка выдать желаемое за действительное. Да ты будешь известен в узких кругах и какие-то дяди и тети не пренебрегающие личной коммуникацией будут зарабатывать на тебе деньги.  Да какие-то вопросы можно решить и online и успешно, но... это как знакомство с девушкой по переписке :) Так красиво общались, фотки присылала приходишь на встречу, а там крокодил :)) Да люди делятся на интровертов и экстравертов, но вселенная принадлежит вторым. 

Написал комментарий к посту Чат GPT и почему можно "расслабить булки", (но не сильно) и зачем он нужен писателю.

С установкой локальных LLM есть один ньюанс.. если вы посмотрите на скриншоты LM Studio с выбором моделей, то там в названиях есть такие приписки - например DeepSeek R1 Distill 32B или QwQ 32B. Это обозначение обозначает что взяли обученную языковую модель например DepSeek размером например в 780 миллиардов "нейронов" и используя ее знания урезали/оптимизировали незначимые данные до уровня 32 миллиардов "нейронов".  Зачем это делается... 780 миллиардов "нейронов ", потребует от вас где-то в 500-600 GB оперативной памяти для того чтобы развернуться в ней. А вот 32 B вполне развернется на домашней RTX 4090 или RX 7900... Нейроны это конечно очень условно, но по смыслу близко. Процесс правильно называется дистилляцией.  В вашем случае надо смотреть модель... есть ведь и 5B и 8B и 1B в любом только толку от них.... по понятным причинам немного. Я тестировал DeepSeek и QwQ модели 32B они слабее онлайн версий, по причине сильного "обеднения" знаниями, НО! когда к ним прикручиваешь АИ агента в виде дополнительных баз данных, то фурычит достаточно неплохо. На меньших моделях чем 32B мне не зашло... там чисто игрушка для развлечений что-то серьезное они не осилят. Еще зависит от системы... например на Mac Mini мне больше понравилось как работает (там вообще делают сейчас кластеры из нескольких MacMini под Linux они очень хороши для LLM), под АМД на пк многие тоже пользуются линук, и LLM модели работают там лучше. Падение точности и коррекции ответов у дистиллированной модели DeepSeek32B пишут всего 5% от онлайн оригинала... хотя... 

Из плюсов запуска локально - отмена ограничений, возможность увеличить размер вопроса и ответа с 4096 токенов (пример 1,5 листа А4) до 8000 и болеее (хотя чем больше длина ответов тем больше надо ресурсов от машины - мощности процессора, памяти и тд.).  На что влияют токены. Например языковая модель дает развернутый ответ на ваш вопрос, и этот ответ требует 5000 токенов (ну пусть токен будет равен слову), вы получите на 4000 развернутый ответ, а оставшиеся 1000 слов LLM тупо урежет до 96.... 

Или к примеру вы попросили чат GPT исполнить роль редактора и переписать ваш текст, чтобы в нем было больше действия.. Чат начинает писать действительно неплохой текст в начале... но из-за недостатка токенов скатывается в откровенный бред к его середине. ...

Написал комментарий к посту Чат GPT и почему можно "расслабить булки", (но не сильно) и зачем он нужен писателю.

На самом деле есть вариант не использовать ChatGPT онлайн. А установить ИИ прямо на свой компьютер там можно будет подгрузить необходимые данные прямо в программу, но надо отдавать отчет, что вам понадобиться железо. Либо это должен быть неплохой мак мини с процессором М4 и памятью минимум 24 гигабайта. Либо сравнимый по стоимости ПК с видеокартой у которой опять же память объемом 24 и выше. Теоретически можно запустить и на 8 GB но фурычить будет очень медленно... на 24 можно подобрать тренированную модель ну чтобы более менее.

Абсолютно бесплатная LM студио в моем случае запускает популярные модели на Radeon 7900 xtx c 24 GB озу. 

Модели просто загружаются в один клик и тут зависит только от вашего железа... 

А ниже вторая (тоже бесплатная) софтина которая цепляется в виде АИ агента и позволяет подгружать инфу из библиотеки или например прямо забирать с тытрубы видео и вытаскивать из нее текст. На скрине я ее мучаю чтобы написал мне текст в стиле Лукьяненко. 

Опять же когда цепляешь работет в разы медленнее чем чат GPT, но если вы не торопыга то вполне "могет..."

В данном случае я тренировал агента писать что-то стиксоподобное и потому в базу попала куча справочников начиная от военной медицины и заканчивая советским наставлением по подготовке снайперов 24 года.  Все ради реализма. Так же, чтобы повысить экспертность советов чата подгрузил книги и справочники о том как писать книги и по мономифу.

Написал комментарий к посту Чат GPT и почему можно "расслабить булки", (но не сильно) и зачем он нужен писателю.

Касательно ИИ агента:

Если говорить про определение то АИ агент  — это программное обеспечение, которое использует алгоритмы искусственного интеллекта для выполнения определённых задач или действий. 

Однако какое-то подобие АИ агентов есть в самом чат GPT.  Мы можем загрузить некую библиотеку.  Например загрузив атлас по нейрохирургии, и монографию по флуоресцентной диагностике, я получу не просто LLM чат, но и некого эксперта-консультанта (на уровне монографий) которому 1. смогу задавать вопросы используя как справочник 2. применять эти знания в контексте задания. 

В чат GPT это называется проект. Как можно увидеть на скриншоте в левую часть я загружаю роль, несколько вопросов для пользователя и данные. В правой стороне окно в котором ответы на вопросы. Пользоваться таким вот продвинутым чатом смогут все пользователи чат GPT если я дам для этого доступ.

Теперь чат дает ответы базируясь на моей базе данных в развернутой форме и самое главное не галлюцинирует. Надо сказать, что до момента загрузки данных он не знал что такое Аласенс (теперь знает не только мой АИ но и сам GPT) т.к. в США у этого препарата другое название Глиолан.

Теперь же пользуясь справочником он дает вполне профессиональный ответ причем дает резюме своими словами.

Вот второй пример. 

На это раз с написанием художественных текстов. На скриншоте варианты книги (он это спрашивает самым первым) из популярных жанров на АТ (отдельный справочник). Вообще я тренировал его на книгах в стиле Уся. Но в целом он умеет подкидывать идеи сюжета (согласно классическим моделям мономифа), создавать персонажей по загружаемому досье и на лету. Формировать их психологические профили и сталкивая лбами подсказывать какие конфликты скорее всего случились бы в написанной мной ситуации. 

Не надо обольщаться книгу такой помощник не напишит. Но вот заменить бета-реадера местами сможет и подсказать более реалистичный вариант. Мне нравиться "обсасывать" новые идеи для книги с таким помощником. 

Написал комментарий к посту Чат GPT и почему можно "расслабить булки", (но не сильно) и зачем он нужен писателю.

Ну тут как сказать.  Китайцы неплохо с русским работают, в отличии от остальных. А GPT вообще Россию забанил.  Как работают яндекс и сбер мне вообще не понравилось. 

Наверх Вниз