- 26.04.2026
- 28.04.2026
- выступления
На митапе в Коронатехе рассказал про роль вайбкодинга в промышленной разработке программного обеспечения

Слайды: llm-kolodezev.pdf
Специально для митапа навайбкодил за час несложное приложение - прокси-сервер для бесплатных llm на опенроутере.
Внимание: работает нормально только если у вас на балансе опенроутера лежит хотя бы $10 - денег брать не будут, но без этого лимиты будут очень маленькие.
Репозиторий проекта: free-llm-proxy
Пример подключения к qween code: settings.json
Лог работы с Claude: free-llm-proxymd.html
Изначально задача формулировалась так:
Есть регулярно обновляемый список бесплатных LLM
https://shir-man.com/api/free-llm/top-models
Нужно сделать сервис, который бы позволял использовать эти модели в едином openai-подобном интерфейсе.
Запрос должен идти в первую же из доступных моделей.
Если модель недоступна, нужно переключаться на следующую.
Раз в час нужно перечитывать список моделей.
Можно использовать, например, LiteLLM proxy https://docs.litellm.ai/docs/proxy/docker_quick_start
В итоге мы с Claude пришли к free-llm-proxy.md и verification.md
Это педагогический пример, мне хотелось показать не очень подготовленной аудитории как работать с кодовыми агентами на практике. Особенной пользы от получившегося сервиса я не вижу, но говорят, что было полезно.
К сожалению, митап не записывался.