The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



"Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с формальной верификацией"
Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Изначальное сообщение [ Отслеживать ]

"Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с формальной верификацией"  +/
Сообщение от opennews (??), 17-Мрт-26, 11:31 
Компания Mistral AI представила большую языковую модель Devstral, нацеленную на использование для разработки приложений (вайб-кодинга) и оптимизированную для формальной верификации кода. Предполагается, что Devstral может применяться для создания AI-ассистентов, позволяющих не просто генерировать код, но и гарантировать отсутствие в нём ошибок...

Подробнее: https://www.opennet.ru/opennews/art.shtml?num=65005

Ответить | Правка | Cообщить модератору

Оглавление

Сообщения [Сортировка по времени | RSS]


1. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  –2 +/
Сообщение от Аноним (1), 17-Мрт-26, 11:31 
Кто пользуется подобным, какое железо нужно, чтобы запустить? Сам использую qwen code, было бы интересно запускать всё локально
Ответить | Правка | Наверх | Cообщить модератору

4. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +1 +/
Сообщение от Аноним (4), 17-Мрт-26, 11:38 
>Leanstral-2603  121 GB

https://huggingface.co/mistralai/Leanstral-2603/tree/main
Дорогое.

Ответить | Правка | Наверх | Cообщить модератору

6. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Джон Титор (ok), 17-Мрт-26, 11:41 
Замечу что из описания следует что русский язык оно не поддерживает
Ответить | Правка | Наверх | Cообщить модератору

42. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (4), 17-Мрт-26, 13:09 
На кириллице кодите ? Что не комментарий от вас, то откровение.
Ответить | Правка | Наверх | Cообщить модератору

45. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от aname (ok), 17-Мрт-26, 13:19 
1C
Ответить | Правка | Наверх | Cообщить модератору

5. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Джон Титор (ok), 17-Мрт-26, 11:39 
Тут главное видеокарта и её объем памяти. Лучше брать все что выше 16Гб и NVidia. Можно конечно и под других производителей адаптировать, а некоторые сразу поддерживают, но чаще всего для этого придется потанцевать с бубном. Можно все немного ускорить заморозив код и скомпилировать пайтон, но правки придется делать. Процессор хороший тоже не помешал бы, бывает что-то слетает и если протанцевали с бубном под не ту видеокарту под которую оно сделано, то можно настроить переход на процессор, но это в 10 раз дольше выполнение.
Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

12. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  –1 +/
Сообщение от Аноним (4), 17-Мрт-26, 11:59 
Чтоб хоть как-то запустилось 128 Гб DDR5 ОЗУ.
Или можно одну NVIDIA H200.
Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

34. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (34), 17-Мрт-26, 12:56 
> Чтоб хоть как-то запустилось

И выдало хоть какие-то результаты.

Ответить | Правка | Наверх | Cообщить модератору

13. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (13), 17-Мрт-26, 12:02 
Нужно было интересоваться до взлета цен на память. Купить максимум во все слоты по 32гб = 128гб. Да любая видяха пойдет. Я на интегрированной 8700G. Но модели 30-60гб юзаю (q6). Квен3-кодер-30b полюбился. Главная проблема - научиться общаться с ии. Придется слова учиться подбирать и вычищать промпт от "помогающих" инструкций. Модели от devstral ужасны. Европа загнила. Фантасмагорический язык они придумали, а компилятор или интерпретатор существует? Короче он нам и нафиг не нужон Ленстрал ваш. Вайбкодинг не существует, это протокол.
Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

29. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (29), 17-Мрт-26, 12:50 
Вообще-то максимум для DDR5 4x48 Gb, но нужна поддержка процом и мамой.
Ответить | Правка | Наверх | Cообщить модератору

14. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Андрей (??), 17-Мрт-26, 12:02 
Вообще чем мощнее тем лучше, дальше по убыванию скорости генерации:
1) "вся модель должна влезть в VRAM" ->
2) "Часть модели влазит в VRAM, остальная часть помещается в RAM" ->
3) "Часть модели в VRAM, часть в RAM, часть в SSD swap(В случае MoE моделей на ура)
4) "Вся модель в RAM"
5) "Часть в RAM, часть в SWAP"

Короче дальше думаю ясно, по итогу ключевое наверное ограничение, это чтобы на базу и плотные слои(или активируемую часть экспертов) хватало по минимуму VRAM + RAM, тогда потыкать в разумных пределах можно любую модель, в противном случае - суета. На удивление для себя обнаружил(хотя и ожидал), что в ноут 8VRAM + 32RAM вполне влезла 80B MoE q6 модель, да ещё и работает на ~4 т/с, что вполне годно и по качеству и по скорости для автономной LLM, если бы ещё заморочится и переупорядочить экспертов(в пользу самых востребованных) и поколдовать с матричками активации, то так вообще космос будет.

Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

17. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Джон Титор (ok), 17-Мрт-26, 12:06 
В моделях как правило есть ещё B параметры (B = биллионы, миллиарды). Параметры — это веса нейронной сети: числа, которые хранятся в памяти и участвуют в вычислениях при каждом токене. Грубо: чем их больше, тем больше "знаний" и контекста модель может удерживать. 1B параметров ≈ 2 ГБ в памяти при float16, или ≈ 0.5 ГБ при 4-битной квантизации.

Важный нюанс про MoE (Mixture of Experts) — это как раз случай Leanstral/Devstral 2 в статье. Модель имеет 119B "всего" параметров, но активирует только 6.5B на каждый токен. Остальные "эксперты" в этот момент спят. Это значит, что вычислений меньше (скорость выше), но в памяти нужно держать всё равно почти все 119B — потому что неизвестно заранее, какой эксперт понадобится.

Железо: минимум и комфорт
Вот реальная картина по трём размерам моделей из этой истории:

Модель Devstral Small 2 24B dense, Apache 2.0 контекст 256K
Минимум RTX 3090 / 24 ГБ VRAM, Q4 квантизация, Mac 32 ГБ RAM, ~20 tok/s, контекст 32–57K
Хорошо работает RTX 4090 / 24 ГБ, RTX 3090 / 24 ГБ, AMD 6700 XT ×2 / 24 ГБ, ~44 tok/s (RTX 3090, Q4)
Комфортно RTX A6000 / 48 ГБ, Mac M3 Max / 96 ГБ, ~55 tok/s, полный контекст 256K

Devstral 2 (MoE), 123B / 6.5B активных, контекст 256K
Минимум 72+ ГБ VRAM, RTX 3090 ×4 или 4090 ×3, Q2 квантизация, Медленно, контекст 4–16K
Хорошо работает 96 ГБ unified RAM, Ryzen AI Max+ 395 96ГБ (~$1500), Mac M3/M4 Max 96 ГБ, Умеренно, контекст ~64K
Комфортно 128 ГБ unified RAM, RTX Pro 6000 Blackwell, Dual RTX 4090 48ГБ, Нормальная скорость, полный контекст

Вывод по железу:
Для Leanstral (119B MoE) локально — это уровень энтузиастов с бюджетом от $1500 только на железо: либо Ryzen AI Max+ 395 с 96 ГБ unified memory, либо Apple Silicon M3/M4 Max с 96–128 ГБ, либо несколько потребительских GPU в связке. На обычном домашнем ПК с одной видеокартой — не запустить.
Devstral Small 2 (24B) — другая история: одна RTX 3090/4090 справляется реально и выдаёт приемлемую скорость. Если сравнивать с Qwen2.5-Coder, который ты уже используешь — они в одной весовой категории, разница только в специализации (Devstral заточен под агентные задачи и тулколлинг).

Про модели в статье
Статья слегка путает названия: Leanstral и Devstral — это разные вещи. Leanstral — это специализированная модель именно под Lean 4 и формальную верификацию. Devstral — это общий coding-агент от Mistral. Судя по описанию (119B параметров, 6.5B активируемых) — речь о MoE-архитектуре, это скорее относится к Devstral 2 (123B).

Я ещё попросил составить по другим моделям ИИ чтоб он посчитал от дешевым к дорогим, минутку.

Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

18. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  –1 +/
Сообщение от gethemail (?), 17-Мрт-26, 12:09 
На HF народ квантует. Пишут что:
Performance
On 2x RTX 4090 (48GB VRAM) + 192GB RAM with Q4_K_M:

~34 tokens/s generation speed
Model splits between GPU and system RAM automatically with -fit on
Т.е. 8 битное квантование будет примерно в 2 раза медленнее. А цены на 4090 и 5090 уточняйте у поставщиков, советую обращать внимание на китайцев с 48 Гб VRAM.

Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

21. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Джон Титор (ok), 17-Мрт-26, 12:18 
Данные свежие, март 2026. Строю большую сводную таблицу по тирам.
Тир 0 — CPU / интегрированная графика
Любой ноутбук или ПК с 8–16 ГБ RAM, без дискретного GPU.
Qwen 3.5 4B (Q4, ~3 ГБ RAM) — минимально жизнеспособный кодинг-ассистент на CPU или интегрированной графике. Мышление включается по запросу. Хорош для объяснений и простых задач. Скорость 5–10 tok/s на CPU, контекст 32K.
Phi-4-mini (3.8B, Q4, ~2.5 ГБ) — от Microsoft, сильный интеллект для размера. MMLU 68.5 — лучший в классе до 4B. Хорош для math/logic. Слабоват на длинном коде. Скорость 10–20 tok/s на CPU, контекст 16K.
Llama 3.2 3B (Q4, ~2 ГБ) — от Meta, оптимизирован для edge/mobile. Хорош для chat, суммаризации. Не специализирован на коде. Скорость 8–15 tok/s на CPU, контекст 128K.

Тир 1 — 8 ГБ VRAM
RTX 3070 / 4060 / RX 7600 XT, около $300–500 за GPU.
Qwen 2.5 Coder 7B (Q4, ~6.6 ГБ) — лучший FIM-автокомплит в классе до 8B. HumanEval 88.4%, 128K контекст, 92+ языка. Основа для inline autocomplete в редакторе. Скорость 30–50 tok/s, контекст 128K.
Qwen 3.5 9B (Q4, ~7 ГБ) — вышел 2 марта 2026. Мультимодальный (читает изображения), thinking mode. LiveCodeBench 65.6. Хорош для чата и ревью кода рядом с автокомплитом. Скорость 25–40 tok/s, контекст 262K.
Gemma 3 9B (Q4, ~6 ГБ) — от Google, сильный general-purpose. Хорошее reasoning, мультилингвальность. Apache 2.0. Хуже на чистом коде, чем Qwen. Скорость 30–45 tok/s, контекст 128K.

Тир 2 — 12–16 ГБ VRAM
RTX 4070 / 3080 Ti / RX 7800 XT, около $500–800 за GPU.
Qwen 2.5 Coder 14B (Q4, ~10 ГБ) — значительно сильнее 7B на многошаговых задачах. Всё ещё лучший FIM. Хороший выбор для daily driver кодинга. Скорость 20–35 tok/s, контекст 128K.
DeepSeek-R1-Distill 14B (Q4, ~10 ГБ) — дистилляция R1 от DeepSeek. Цепочка рассуждений, сильный на debug и math. Медленнее из-за thinking-токенов, но заметно умнее на сложных задачах. Скорость 15–25 tok/s, контекст 64K.
Phi-4 14B (Q5, ~11 ГБ) — от Microsoft, MMLU 76.2. Отличное reasoning и math для размера. Конкурирует с моделями втрое больше. Скорость 20–30 tok/s, контекст 16K.
Gemma 3 12B (Q4, ~8 ГБ) — лучший general-purpose в 12B классе по мнению многих. Хорошо на мультилингвале, суммаризации, code review. Скорость 25–40 tok/s, контекст 128K.

Тир 3 — 24 ГБ VRAM
RTX 3090 / 4090 / RX 7900 XTX, около $700–2000 за GPU.
Qwen 2.5 Coder 32B (Q4, ~20 ГБ) — топ для кодинга на одной потребительской карте. SWE-bench 43.4%. Хороший для больших проектов и рефакторинга. Скорость 20–35 tok/s, контекст 128K.
GLM-4.7-Flash (Q4, ~18 ГБ) — от Zhipu AI. Intelligence Index 30.1 — лучший all-rounder на 24 ГБ по тестам 2026. Победитель agentic coding challenge на localllm.in. Сильный на математике. Скорость 25–40 tok/s, контекст 128K.
DeepSeek-R1-Distill 32B (Q4, ~20 ГБ) — самый сильный reasoning на одной 24GB карте. Цепочка мыслей, math, сложный debug. Медленнее из-за thinking. Скорость 12–20 tok/s, контекст 64K.
Devstral Small 2 (24B) (Q4, ~14 ГБ) — от Mistral, специализирован на агентном кодинге и тулколлинге. SWE-bench 68%. Apache 2.0. Та самая модель из статьи выше. Скорость 44 tok/s на RTX 3090, контекст 256K.
Gemma 3 27B (Q4, ~16 ГБ) — лучший general от Google для 24 ГБ. Мультимодальный, хороший на длинных документах и мультилингвале. Скорость 20–30 tok/s, контекст 128K.

Тир 4 — 48+ ГБ VRAM или unified 96 ГБ
RTX A6000 / 2×RTX 3090 / RTX 5090 / Mac M3 Max 96 ГБ / Ryzen AI Max+ 395. Цена от $1500 до $5000+.
Llama 3.3 70B (Q4, ~40 ГБ) — от Meta, огромная экосистема fine-tune и тулинга. Хороший general + code. Нужно 48 ГБ VRAM или 2×24 ГБ. Скорость 15–25 tok/s, контекст 128K.
Qwen3-Coder-Next (80B MoE) (Q4, ~46 ГБ RAM) — от Alibaba, вышел февраль 2026. Первое место на SWE-rebench (64.6%), обходит Claude Opus 4.6 (58.3%). Всего 3B активных параметров — высокая скорость для класса. Нужно 46 ГБ unified memory или VRAM+RAM с offload. Скорость 20–40 tok/s, контекст 256K.
Devstral 2 (123B MoE) (Q2, 72+ ГБ VRAM) — из статьи выше. SWE-bench 72.2%. Нужно минимум 72 ГБ VRAM или 96 ГБ unified memory для нормальной работы. Скорость 10–20 tok/s, контекст 256K.
GPT-oss 20B (Q4, ~14 ГБ) — утёкшая open-weight модель от OpenAI. Сильное reasoning и tool-calling. Помещается на 24 ГБ, но раскрывается на большем железе с длинным контекстом. Скорость 25–35 tok/s, контекст 128K.

Тир 5 — экстремальное железо
128+ ГБ unified memory, multi-GPU, Mac M3 Ultra 512 ГБ. Цена $5000 и выше.
Qwen3-Coder 480B (Q2, ~276 ГБ) — аналог Claude Sonnet 4 по кодингу (Aider Polyglot 60.9% против 61.8% у полной точности). 35B активных параметров. Нужен кластер или Mac Ultra. Скорость 5–15 tok/s, контекст 1M токен.
DeepSeek V3.2 (685B MoE) (~200+ ГБ) — лучший open general-purpose на данный момент. SWE-bench 70.2%. Для домашнего запуска нужен Mac Ultra 512 ГБ или multi-GPU сервер. Скорость 3–10 tok/s, контекст 64K.

Самое интересное открытие из поиска — Qwen3-Coder-Next (80B MoE, 3B активных параметров) занял первое место на SWE-rebench с результатом 64.6%, обходя Claude Opus 4.6 (58.3%), GPT-5.2-medium (60.4%) и Gemini 3 Pro (58.3%). И при этом для запуска нужно всего около 46 ГБ RAM или unified memory в 4-битной квантизации.
По стратегии на 24 ГБ: Рекомендуемая связка — Qwen 2.5 Coder 7B для автокомплита (FIM), и Qwen 3.5 9B отдельно для чата, дебага и ревью кода — они не обязаны работать одновременно.
По Mac Mini как варианту: M4 Pro с 64 ГБ RAM запускает Qwen 2.5 Coder 32B на 11–12 tok/s — достаточно для production-задач. Четыре Mac Mini M4 в кластере (~$2400 суммарно) дают 496 ГБ unified memory и запускают даже Nemotron-70B.
По AMD: ROCm продолжает нагонять NVIDIA в поддержке llama.cpp и vLLM, но пока отстаёт. Radeon PRO W7900 с 48 ГБ стоит около $3500, потребительский RX 7900 XTX с 24 ГБ — ближайший вариант, но совместимость с ROCm нужно проверять под конкретную задачу.

Дополнительные заметки:
Стратегия на 24 ГБ — держать две модели по очереди: Qwen 2.5 Coder 7B для inline autocomplete (FIM) и Qwen 3.5 9B для чата и ревью. Они не обязаны работать одновременно.
Mac Mini M4 Pro с 64 ГБ RAM запускает Qwen 2.5 Coder 32B на 11–12 tok/s — достаточно для production. Четыре Mac Mini M4 в кластере (~$2400) дают 496 ГБ unified memory и тянут даже Nemotron-70B.
AMD ROCm продолжает нагонять NVIDIA в поддержке llama.cpp и vLLM, но пока отстаёт. RX 7900 XTX с 24 ГБ — ближайший потребительский аналог RTX 3090, совместимость с ROCm нужно проверять под конкретную задачу.
Квантизация Q4_K_M — золотой стандарт: уменьшает размер модели на ~75% с минимальной потерей качества. Для большинства задач неотличима от полной точности.

Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

2. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Джон Титор (ok), 17-Мрт-26, 11:34 
> В проведённых тестах модель Leanstral ощутимо обогнала существующие открытые модели Qwen3.5 397B-A17B, Kimi-K2.5 1T-A32B и GLM5 744B-A40B, показала сходные результаты с моделями Claude Haiku 4.5 и Claude Sonnet 4.6 от компании Anthropic, но отстала от модели Claude Opus 4.6.

О, это уже не плохо. Sonnet 4 уже хорош, а 4.5 немного лучше. 4.6 там не особо то и сильно лучше. Если проверять что оно пишет, то 4.5 уже отличная помощь.

Ответить | Правка | Наверх | Cообщить модератору

8. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +6 +/
Сообщение от Аноним (-), 17-Мрт-26, 11:48 
> AI-модель для вайб-кодинга с формальной верификацией

Хихи, маркетологи нынче зажигают на тему взаимоисключающих параграфов.

Ответить | Правка | Наверх | Cообщить модератору

10. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  –1 +/
Сообщение от Аноним (10), 17-Мрт-26, 11:53 
> Хихи, маркетологи нынче зажигают на тему взаимоисключающих параграфов.

А где противоречие? Модель просто обучили в том числе на ошибках Aeneas.
Модель выдает код, агент запускает верификатор, тот выдает какие-то ошибки, которые модель обрабатывает и исправляет код. После этого верификатор запускается повторно.
Обычный close loop.

Ответить | Правка | Наверх | Cообщить модератору

15. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +2 +/
Сообщение от Аноним (15), 17-Мрт-26, 12:03 
В итоге, модель научится писать код, проходящий конкретный верификатор. А вовсе не нормально работающий
Ответить | Правка | Наверх | Cообщить модератору

16. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (16), 17-Мрт-26, 12:06 
> В итоге, модель научится писать код, проходящий конкретный верификатор.
> А вовсе не нормально работающий

Если "не нормально работающий" код проходит ваш верификатор... то проблема в верификаторе.
Потому что сам факт прохождения верификации должен давать гарантии соответствия спецификации.

Ответить | Правка | Наверх | Cообщить модератору

20. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +2 +/
Сообщение от Хрю (?), 17-Мрт-26, 12:17 
Вся проблема, что написать полностью правильную верификацию на код, не проще чем этот код написать 😃 Т.е. одну сложность заменили на другую 😃
Ответить | Правка | Наверх | Cообщить модератору

27. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  –1 +/
Сообщение от Аноним (-), 17-Мрт-26, 12:46 
вот только сначала тебе в норме надо было написать и код верификации, и код под нее

а сейчас надо написать верификацию, код нейробратан напишет

не одну "сложность заменили на другую", а уполовинили сложность

Ответить | Правка | Наверх | Cообщить модератору

28. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Хрю (?), 17-Мрт-26, 12:50 
Сейчас верификацию на код пишут, мягко скажем очень редко, и в мегакритикал системах, потому что это тяжёлая, сложная и очень затратная операция с малым колвом спецов по теме и небольшим колвом специального ПО. Гораздо проще и дешевле тупо написать код и облажить его тестами.
Ответить | Правка | Наверх | Cообщить модератору

32. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (-), 17-Мрт-26, 12:55 
тогда о чем разговор? у нас нет верификатора, потому мы хотим, чтобы модель, заточенная на работу через верификатор, без него код написала? или что?
Ответить | Правка | Наверх | Cообщить модератору

38. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Хрю (?), 17-Мрт-26, 13:03 
Разговор про то что дешевле и лучше не стало, а просто одну сложность 'написание кода', заменили на другую сложность (возможно даже более сложную) 'написание верификатора'. Я пока вижу очень узкую сферу применения сей модели к этому и был изначальный каммент.
Ответить | Правка | Наверх | Cообщить модератору

40. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (-), 17-Мрт-26, 13:05 
> Разговор про то что дешевле и лучше не стало
> Я пока вижу очень узкую сферу применения сей модели

Дак стало или нет?

А там, где писали верификацию, стало легче или нет?

Или раз никто не пишет верификацию, то это нормально и верификацию писать не нужно?

Ответить | Правка | Наверх | Cообщить модератору

37. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (37), 17-Мрт-26, 13:02 
облАжить тестами - это зачЁт!
Ответить | Правка | К родителю #28 | Наверх | Cообщить модератору

30. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (30), 17-Мрт-26, 12:51 
> не одну "сложность заменили на другую", а уполовинили сложность

Нюанс в том, что 99% 6ыdlo-кодеров никогда в жизни не писали спецификаций.
Максимум смотрели в AC в задачке, которые выдавил из себе менеджер, и где-то в голове прикидывали эджкейсы. Ну, могли еще комментарий в коде оставить "вот тут может произойти такая х..., поэтому делаем так-то"

Ответить | Правка | К родителю #27 | Наверх | Cообщить модератору

35. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (-), 17-Мрт-26, 12:56 
вот то же самое

тогда о чем разговор? у нас нет верификатора, потому мы хотим, чтобы модель, заточенная на работу через верификатор, без него код написала? или что?

Ответить | Правка | Наверх | Cообщить модератору

39. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (34), 17-Мрт-26, 13:03 
> ошибки, которые модель обрабатывает и исправляет код. После этого верификатор запускается повторно

Но есть нюанс: процесс не обязан сходиться. Практика применения ИИ показывает, что 1+1 нейроslop ещё может научиться складывать, а более сложное - постоянно в ошибках.

Ответить | Правка | К родителю #10 | Наверх | Cообщить модератору

11. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +1 +/
Сообщение от Аноним (11), 17-Мрт-26, 11:59 
Нейрослоп вышел на новый уровень.
Ответить | Правка | Наверх | Cообщить модератору

41. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (34), 17-Мрт-26, 13:08 
Вангуется очередное повышение цен на память в 2 раза.
Ответить | Правка | Наверх | Cообщить модератору

44. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (4), 17-Мрт-26, 13:13 
Ими кстати ASML заинтересовались:
https://www.asml.com/en/news/press-releases/2025/asml-mistra...
Ответить | Правка | К родителю #11 | Наверх | Cообщить модератору

22. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +2 +/
Сообщение от Аноним (22), 17-Мрт-26, 12:20 
> позволяет подтвердить, что сгенерированный AI-моделью код делает именно то, что задумано

Осталось теперь подтвердить, что описанное в спецификации - это именно то, что и было задумано

Ответить | Правка | Наверх | Cообщить модератору

31. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +1 +/
Сообщение от Аноним (34), 17-Мрт-26, 12:53 
> математического доказательства корректности

не гарантирует, что код оптимальный. Чтобы получить "единицу", можно сделать 0+1, а можно сумму квадратов косинуса и синуса, разложенных в ряды, вычисляемых через soft-float повышенной разрядности, от случайного аргумента, полученного криптографически через энтропию устройств ввода-вывода системы.

Ответить | Правка | Наверх | Cообщить модератору

36. Скрыто модератором  –1 +/
Сообщение от Аноним (36), 17-Мрт-26, 13:02 
Ответить | Правка | Наверх | Cообщить модератору

43. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Bob (??), 17-Мрт-26, 13:12 
Вайбкод:
1) модель тренировали на общедоступном мусоре, а не топовых примерах кода и коммерческом софте
2) задача максимум токенов "сожрать/выплюнуть" - чтобы платили
3) общение напоминает диалог глухо-немого со слепым
4) в тесте не учли человекочасы на годный результат
Ответить | Правка | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2026 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру