Анализ производительности различных моделей Qwen 2.5 Coder и ChatGPT при конвертации кода в C показал, что модели Qwen с 3 млрд параметров не справляются с задачей, демонстрируя ошибки и неспособность исправить их даже после уточняющих запросов. Модели с 14 млрд параметров демонстрируют частичное понимание кода, но допускают ошибки в расчёте контрольной суммы.
Только модель Qwen 2.5 Coder с 32 млрд параметров в квантизации Q5_k_m достигает уровня, сравнимого с ChatGPT, исправив ошибку во втором запросе, но работает крайне медленно на мощном ПК. Квантизация Q4 ускоряет работу 32B модели, но снижает качество ответов.
Не специализированная модель Qwen2.5-72B-instruct, хотя и доступна онлайн, демонстрирует аналогичные ошибки, что и модели с 3 млрд параметров, что свидетельствует о недостатке специализированного обучения для задач кодирования.
Таким образом, на текущий момент, локальное использование моделей Qwen 2.5 Coder для экономии на подписке ChatGPT затруднительно из-за низкой производительности и нестабильности результатов. Для эффективной работы требуется более мощное оборудование, а не только специализированная модель.
Изображение носит иллюстративный характер
Только модель Qwen 2.5 Coder с 32 млрд параметров в квантизации Q5_k_m достигает уровня, сравнимого с ChatGPT, исправив ошибку во втором запросе, но работает крайне медленно на мощном ПК. Квантизация Q4 ускоряет работу 32B модели, но снижает качество ответов.
Не специализированная модель Qwen2.5-72B-instruct, хотя и доступна онлайн, демонстрирует аналогичные ошибки, что и модели с 3 млрд параметров, что свидетельствует о недостатке специализированного обучения для задач кодирования.
Таким образом, на текущий момент, локальное использование моделей Qwen 2.5 Coder для экономии на подписке ChatGPT затруднительно из-за низкой производительности и нестабильности результатов. Для эффективной работы требуется более мощное оборудование, а не только специализированная модель.