Разработка с помощью агентов


На митапе в Коронатехе рассказал про роль вайбкодинга в промышленной разработке программного обеспечения

Слайды: llm-kolodezev.pdf

Специально для митапа навайбкодил за час несложное приложение - прокси-сервер для бесплатных llm на опенроутере.

Внимание: работает нормально только если у вас на балансе опенроутера лежит хотя бы $10 - денег брать не будут, но без этого лимиты будут очень маленькие.

Репозиторий проекта: free-llm-proxy

Пример подключения к qween code: settings.json

Лог работы с Claude: free-llm-proxymd.html

Изначально задача формулировалась так:

Есть регулярно обновляемый список бесплатных LLM
https://shir-man.com/api/free-llm/top-models

Нужно сделать сервис, который бы позволял использовать эти модели в едином openai-подобном интерфейсе.
Запрос должен идти в первую же из доступных моделей.
Если модель недоступна, нужно переключаться на следующую.
Раз в час нужно перечитывать список моделей.
Можно использовать, например, LiteLLM proxy https://docs.litellm.ai/docs/proxy/docker_quick_start

В итоге мы с Claude пришли к free-llm-proxy.md и verification.md

Это педагогический пример, мне хотелось показать не очень подготовленной аудитории как работать с кодовыми агентами на практике. Особенной пользы от получившегося сервиса я не вижу, но говорят, что было полезно.

К сожалению, митап не записывался.