700+ мільйонів завантажень, підтримка 201 мови, відкритий вихідний код і ціна у 10 разів нижча за GPT-4o. Розбираємо, що вміє, що не вміє, і кому це взагалі потрібно.
Уявіть: є ШІ-модель, яку розробила одна з найбільших компаній у світі. Вона безкоштовна для більшості сценаріїв, перевершує Llama від Meta за кількістю завантажень і технічно конкурує з GPT і Claude в низці завдань. І про неї майже не говорять в Україні.
Це Qwen. Розроблений Alibaba Cloud — тим самим Alibaba, який “китайський Amazon”. Але якщо ви думаєте, що це черговий роздутий маркетингом продукт з Китаю — зачекайте. Ситуація трохи складніша, і я розкладу її по поличках.
Що таке Qwen
Qwen (вимовляється “к’вен”, офіційна китайська назва — 通义千问, Tōngyì Qiānwèn, тобто “Тисяча питань єдиного смислу”) — це родина великих мовних моделей (LLM), розроблена лабораторією Tongyi Lab всередині Alibaba Cloud.
Якщо зовсім просто: це те саме, що ChatGPT або Claude, але від Alibaba. Ви пишете текст — модель відповідає. Але Qwen вирішили зробити значну частину моделей відкритими (open-weight), тобто будь-хто може завантажити їх і запустити у себе. Безкоштовно.
Ключова різниця між “open-source” і “open-weight”: Alibaba публікує ваги моделей (саму навчену нейромережу), але не публікує датасети та код навчання. Формально — це не повноцінний open source за визначенням Linux Foundation. Але для більшості практичних задач — різниця несуттєва.
Qwen вміє: генерувати та редагувати текст, писати та перевіряти код, аналізувати зображення та відео, розпізнавати й генерувати аудіо, вести багатокрокові діалоги з інструментами (агентний режим).
Звідки він узявся і як розвивається
Alibaba запустив бета-версію Qwen у квітні 2023 під назвою Tongyi Qianwen і відкрив для публіки у вересні того ж року після отримання регуляторного дозволу в Китаї. Архітектура спочатку базувалася на підходах Llama від Meta.
Розвиток виявився стрімким:
- Грудень 2023 — публічний реліз Qwen-72B і Qwen-1.8B
- Червень 2024 — Qwen2 з відкритими вагами для частини моделей
- Листопад 2024 — QwQ-32B-Preview, перший “думаючий” модель (аналог OpenAI o1), під ліцензією Apache 2.0
- Січень 2025 — Qwen2.5-Max
- Вересень 2025 — Qwen3-Max
- Січень 2026 — Qwen3-Max-Thinking
- Лютий 2026 — Qwen3.5 (397 млрд параметрів, підтримка 201 мови)
Зараз Alibaba об’єднав всі свої AI-продукти під єдиним брендом Qwen, а Qwen3.5 увійшов у топ-4 відкритих моделей на Hugging Face за глобальним рейтингом.
700M+ підтверджених завантажень на Hugging Face. Джерело: AI CERTs / Hugging Face analytics.
201 мова і діалект підтримує Qwen3.5 (проти 82 у попередній версії). Джерело: Alibaba / qwen.ai.
100+ відкритих моделей випущено командою Qwen загалом. Джерело: Wikipedia / Qwen.
Які моделі існують і чим вони різняться
Родина Qwen — це не одна модель, а ціла екосистема. Давайте розберемось без зайвих термінів.
За призначенням
Qwen (текст): основні мовні моделі для чату, аналізу, написання текстів. Різні розміри від 0.5B до 397B параметрів — від моделей для смартфона до моделей для дата-центру.
Qwen-VL (зображення + текст): “бачить” картинки, відео, документи. Аналізує зображення, читає текст із фото, розуміє схеми.
Qwen-Audio: сприймає аудіо — мову, музику, звуки. Транскрибує, класифікує емоції мовця.
Qwen-Coder: спеціалізована модель для написання та налагодження коду.
Qwen-Math: заточена під математичні задачі та STEM.
Qwen3-Omni / Qwen3.5: найновіші мультимодальні моделі, що одночасно розуміють текст, зображення, відео та аудіо, і генерують текст і мову в режимі реального часу.
За рівнем потужності (і ціни)
Qwen-Flash / Turbo: швидкі й дешеві. Підходять для масових рутинних задач — відповіді на прості питання, класифікація, короткі тексти. Найдоступніший варіант у хмарі.
Qwen-Plus: золота середина. Баланс між якістю та ціною.
Qwen-Max / Qwen3-Max-Thinking: топова модель з режимом “глибокого міркування” (chain-of-thought). Для складних аналітичних задач, математики, складного коду. Найдорожчий варіант у хмарі.
Режим “thinking” vs “non-thinking”
Одна з цікавих особливостей Qwen3: модель вміє перемикатись між двома режимами роботи. У режимі /think вона “думає вголос” — покроково міркує перед відповіддю (як людина розв’язує задачу на папері). У режимі /no_think — відповідає швидко і без зайвого “розрахунку”. Ви можете переключати режим прямо в чаті — це унікальна фіча порівняно з конкурентами.
Як почати користуватися Qwen: покроковий гайд

Є кілька рівнів входження — від “зайти і поговорити” до “запустити локально на своєму сервері”.
Варіант 1. Безкоштовно через браузер
- Відкрийте chat.qwen.ai Офіційний чат від Alibaba. Доступний без реєстрації для базових запитів. Інтерфейс схожий на ChatGPT.
- Виберіть модель У верхньому меню є вибір — Qwen3.5, Qwen3-Omni тощо. Для початку достатньо стандартної.
- Увімкніть потрібний режим Хочете, щоб ШІ “думав” — додайте
/thinkу кінці запиту. Хочете швидку відповідь —/no_think. Або нічого не додавайте — система сама обирає. - Завантажте документ або зображення Якщо маєте PDF, фото або таблицю — завантажте напряму. Qwen3.5 аналізує їх у рамках одного запиту.
- Увімкніть веб-пошук Qwen вміє шукати в інтернеті в реальному часі — активуйте перемикач “Web Search” для актуальних запитів.
Варіант 2. Через API для розробників
- Зареєструйтесь на Alibaba Cloud Зайдіть на alibabacloud.com і створіть акаунт. Міжнародна версія — сервер у Сінгапурі, дані зберігаються там.
- Активуйте Model Studio У консолі знайдіть “Model Studio” та активуйте сервіс. Є безкоштовна квота для тесту.
- Отримайте API-ключ Створіть ключ у налаштуваннях. API повністю сумісний із форматом OpenAI — якщо ви вже працювали з ChatGPT API, зміна займе 5 хвилин.
- Оберіть модель під задачу Для коду — Qwen-Coder. Для аналізу зображень — Qwen-VL. Для чату — Qwen-Plus або Qwen-Max.
- Запустіть тест Відправте тестовий запит. Стандартний Python-клієнт OpenAI працює без змін, лише змінюєте base_url та назву моделі.
Варіант 3. Локально на своєму комп’ютері
- Зайдіть на Hugging Face Шукайте “Qwen” у пошуку або відкрийте сторінку Qwen організації.
- Оберіть розмір моделі під ваше залізо 7B — для комп’ютера з 16 ГБ RAM або GPU 8 ГБ. 72B — потрібно 40+ ГБ. 397B — виключно для серверів.
- Завантажте GGUF-версію для Ollama Якщо не хочете заглиблюватись у технічні деталі, Ollama — найпростіший шлях:
ollama run qwen3:8b - Запустіть і спілкуйтесь через термінал або локальний UI Open WebUI дає зручний браузерний інтерфейс для локальних моделей.
Цифровий аудит: що є насправді
Реальні плюси
- Ціна — вбивча перевага. Qwen2.5-72B через DeepInfra коштує приблизно $0.23 за мільйон вхідних токенів. GPT-4o — $2.50. Тобто у 10 разів дешевше при порівнянному рівні для математики й коду. Це підтверджено незалежними бенчмарками.
- Відкриті ваги = свобода розгортання. Можна запустити локально, на власному сервері, у приватному хмарному середовищі. Для компаній з вимогами до конфіденційності даних це критично.
- Підтримка 201 мови. Qwen3.5 — одна з небагатьох моделей, що реально підтримує стільки мов, зокрема мови з мінімальною цифровою присутністю. Українська — включена.
- Мультимодальність в одній системі. Текст, зображення, відео, аудіо — Qwen3.5 обробляє все в рамках одного запиту без перемикання між окремими моделями.
- Режим мислення. Можливість переключати “думає” / “відповідає швидко” прямо в чаті — практична фіча, якої немає в більшості конкурентів.
- Airbnb використовує Qwen. CEO Airbnb Браян Чески публічно підтвердив, що сервіс підтримки клієнтів компанії значною мірою працює на Qwen-моделях — це підтверджує реальну enterprise-придатність.
Реальні мінуси
- Цензура — не міф. Qwen суворо обмежує теми, чутливі для китайського уряду: Тайвань як незалежна держава, Тибет, критика КПК. Це вбудовано на рівні навчання — обійти важко. Для більшості задач це неважливо, але знати варто.
- Не справжній open source. Ваги відкриті, але датасети й код навчання — ні. Ви не знаєте, на яких саме даних навчалась модель. Це ускладнює аудит для регульованих галузей.
- Якість бенчмарків — під питанням. Alibaba надає результати порівняльних тестів самостійно, CNBC публічно зазначив, що не може їх незалежно верифікувати. Сприймайте цифри як орієнтир, а не як доведений факт.
- Хмарна версія — Сінгапур. Дані міжнародних користувачів зберігаються в Сінгапурі, а обчислення динамічно маршрутизуються по всьому світу (крім Китаю). Для enterprise-клієнтів потрібна окрема перевірка відповідності GDPR та локальним вимогам.
- Екосистема інструментів — ще не дозріла. Порівняно з OpenAI, Anthropic або Meta, навколо Qwen менше готових інтеграцій, плагінів і спільнотного контенту. Якщо ви не розробник — налаштування може вимагати додаткових зусиль.
- Кадрові втрати в команді. На початку 2026 Alibaba покинув технічний лідер команди Qwen Лінь Цзуньян та інші ключові розробники. Як це вплине на темп розвитку — поки не зрозуміло.
Ризики та приховані витрати
- Токенізація розмов. Чим довша бесіда, тим більше токенів надсилається з кожним повідомленням (уся попередня історія включається). Малий тест перетворюється на значний рахунок при масштабуванні.
- Безкоштовна квота — регіонально обмежена. Квота для API доступна переважно в Сінгапурі. Якщо ви підключаєтесь з іншого регіону, умови можуть відрізнятися.
- Геополітика. Qwen — продукт китайської компанії. В умовах зростаючої напруги між США і Китаєм у технологічній сфері статус окремих моделей може змінитися. Для критичної інфраструктури варто мати план B.
- Потужне залізо для великих моделей. Flagship Qwen3.5 з 397 млрд параметрів — це не для домашнього ПК. Для локального запуску реалістичної потужності потрібно від 40 до 80+ ГБ VRAM.
Орієнтовна вартість
- Безкоштовно: chat.qwen.ai з базовими лімітами, локальне розгортання open-weight моделей (вартість тільки вашого заліза та електрики)
- Qwen-Flash (API): від $0.03 за мільйон вхідних токенів — найдешевша хмарна опція
- Qwen-Plus (API): $0.40 / $1.20 за мільйон токенів (вхідні/вихідні)
- Qwen3-Max Thinking (API): $0.78 / $3.90 за мільйон токенів
- Для порівняння: GPT-4o — $2.50 вхідні, Claude Opus 4 — $19.50 вхідні за мільйон токенів
Джерело: pricepertoken.com
Поширені питання
Чи можна користуватися Qwen безкоштовно?
Так. Через офіційний чат на chat.qwen.ai є базовий безкоштовний доступ без реєстрації. Для API є безкоштовна тестова квота (переважно для сінгапурського регіону). Найповніший безкоштовний варіант — завантажити open-weight модель і запустити локально через Ollama або LM Studio.
Qwen краще за ChatGPT чи гірше?
Залежить від задачі. За результатами незалежних бенчмарків (MMLU, математика, код), Qwen2.5-72B і Qwen3-серія конкурентоспроможні з GPT-4o класу в ряді завдань — особливо математика і кодування. Але GPT і Claude досі мають перевагу в тонких мовних нюансах, творчих завданнях і знанні культурного контексту поза Азією. Плюс: Qwen у 10 разів дешевший для API-запитів.
Qwen розуміє українську мову?
Так. Qwen3.5 офіційно підтримує 201 мову та діалект, і українська серед них. На практиці якість роботи з українською значно краща порівняно з Qwen2 і відповідає рівню, прийнятному для більшості практичних задач. Для дуже специфічного юридичного або медичного тексту українською — рекомендую тестувати окремо.
Чи безпечно довіряти Qwen корпоративні дані?
Коротка відповідь — залежить від моделі розгортання. Якщо ви використовуєте хмарну API Alibaba, дані проходять через сервери в Сінгапурі. Якщо запускаєте open-weight модель локально — дані нікуди не йдуть взагалі. Для enterprise-сценаріїв рекомендую локальне або self-hosted розгортання і консультацію з юридичним відділом щодо відповідності GDPR.
Що таке “thinking mode” і чи він справді корисний?
Режим “thinking” (активується командою /think) змушує модель покроково міркувати перед відповіддю. Для складних математичних або логічних задач це реально підвищує точність — модель “показує роботу” і рідше робить помилки. Мінус: відповідь займає більше часу і витрачає більше токенів. Для простих питань він зайвий — вмикайте тільки коли потрібна точність, а не швидкість.
Висновок та рекомендації
Qwen — не революція і не хайп. Це серйозна, зріла система зі справжніми перевагами і реальними обмеженнями. Я б рекомендував так:
- Звичайний користувач — спробуйте chat.qwen.ai як альтернативу ChatGPT. Особливо якщо потрібна робота з зображеннями, мультимодальні задачі або мови, які погано підтримують інші моделі.
- Розробник і стартап — Qwen API серйозно зменшить витрати. Якщо ваш продукт активно використовує LLM, перехід з GPT-4o на Qwen2.5-72B може скоротити рахунок у 5–10 разів при збереженні якості для більшості сценаріїв.
- Підприємство з вимогами до даних — розгляньте self-hosted варіант через open-weight моделі. Це єдиний спосіб повністю контролювати, куди йдуть ваші дані.
- Тим, кому важлива незалежність від китайських корпорацій — розумію застереження. Використовуйте open-weight версії локально або орієнтуйтесь на альтернативи: Llama від Meta, Mistral від французького стартапу.
Головне, що я хочу донести: Qwen заслуговує на місце у вашому наборі інструментів — принаймні для тестування. Ігнорувати його лише через те, що він китайський, означає платити більше за те саме.
Поділіться нею з колегами, які ще платять захмарні ціни за ChatGPT Pro і не знають альтернатив. Один репост — і ви реально зекономите комусь гроші та час.
Автор: Lumir
Дивіться також:
Що таке DeepSeek: китайський ШІ, що налякав Silicon Valley
Що таке Perplexity AI — і чи варто ним користуватися?
Що таке Grok: чесний огляд AI від Ілона Маска
Що таке Claude: чесний огляд ШІ від Anthropic
Що таке Google Gemini: чесний огляд
Як ChatGPT може допомогти вивчити складну тему: чесний гайд від аналітика
Як налаштувати ChatGPT для щоденної роботи: покрокова інструкція



