Написал(-a) комментарий к посту О том, как изменился АТ
Учту вашу практику.
Я смотрю со своей колокольни (генерация кода и авто тестов) и в моём случае контекст как раз примерно в 15к токенов. Проблемы начинаются, когда появляется много зависимостей между разными модулями. Допускаю, что написание главы попадает в эту категорию.
Якобы был ещё неочевидный прикол - платный gpt4 работал хуже с контекстом, но это я не проверял на практике, у нас локальные модели
Написал(-a) комментарий к посту О том, как изменился АТ
В моём стеке питона нет. Фронт на TS - Там вообще здорово пишет pw тесты. Бек на go, тесты на java - вот тут и лезут проблемы моногомодульных кусков кода с большим количеством зависимостей. Вообще если говорить про работу в режиме авто дополнения, то чуть менее 30% подсказок принимается. Последняя цифра это статистика на примерно 600 человек. Неоптимизированная модель стартовала с 18%