Знаєте, що мене реально вразило, коли я вперше запустив Stable Diffusion локально у себе на комп’ютері? Не якість картинок — хоча вона непогана. Мене вразило те, що весь цей ШІ просто лежить у мене на жорсткому диску. Без підписки. Без щомісячного платежу. Без чужого сервера, який знає, що я генерую.
Midjourney бере $10–30 на місяць і залишає всі ваші запити у себе. DALL-E від OpenAI — частина платного ChatGPT Plus. А тут — повноцінна модель генерації зображень, яку можна запустити вдома, налаштувати під себе і використовувати скільки завгодно. Це і є суть Stable Diffusion.
Але є нюанси. І я розкажу про них чесно — бо маркетинг тут зайвий.
Що таке Stable Diffusion простими словами
Stable Diffusion — це відкрита AI-модель для генерації зображень із текстового опису. Ви пишете «рудий кіт у скафандрі на Місяці, реалістичне фото» — і модель малює це зображення за лічені секунди.
Технічно це латентна дифузійна модель (latent diffusion model). Грубо кажучи, вона вчилася на мільярдах зображень з інтернету, і тепер може «уявити» будь-яке зображення на основі вашого опису. Процес схожий на те, як фотограф відновлює розмите фото: починаєш з шуму і крок за кроком прибираєш його, поки не з’являється чітке зображення.
Ключова відмінність від конкурентів — відкритий вихідний код і публічні ваги моделі. Це значить, що будь-хто може завантажити модель, запустити її на своєму комп’ютері та модифікувати під свої потреби. Без дозволу компанії.
Хто це зробив і коли
Stable Diffusion розробили спільно CompVis Lab Мюнхенського університету, Runway ML та Stability AI. Публічно модель вийшла 22 серпня 2022 року — і стала одним із переломних моментів в AI-галузі. Від моделі v1.4 до поточної SD 3.5 пройшло трохи більше двох років — і за цей час модель змінилася кардинально.
Компанія Stability AI, яка стоїть за проєктом, заснована у 2019 році. У 2024 році вона пережила серйозну кризу — змінила CEO, зазнала судових позовів від Getty Images через авторські права на тренувальні дані. Але проєкт живе і розвивається, бо спільнота навколо нього вже давно більша за саму компанію.
Версії Stable Diffusion: що зараз актуально
Коротко, без зайвого:
- SD 1.5 — перша «народна». Легка, швидка, вимагає мінімум ресурсів. Досі жива завдяки тисячам спеціалізованих моделей на її основі.
- SDXL — вже з роздільністю 1024×1024 нативно. Значно краща якість, але й апетитніший до відеопам’яті.
- SD 3 / SD 3.5 — актуальна лінійка станом на зараз. Вийшла у трьох варіантах: Large (8B параметрів), Large Turbo (оптимізований для 4 кроків генерації) та Medium (2.5B). Нова архітектура — Multimodal Diffusion Transformer — замість старого U-Net. Результат: набагато кращий рендеринг тексту на зображеннях і складних композицій.
Якщо ви новачок — починайте з SDXL або SD 3.5 Medium. Якщо комп’ютер старий — SD 1.5 все ще гідний варіант.
Як це працює технічно (без болю)
Уявіть, що художник починає малювати картину з абсолютно випадкових плям фарби. Потім крок за кроком «прибирає» зайве, орієнтуючись на ваш опис. Саме так і працює дифузійна модель: бере чистий шум і за 20–50 кроків «прибирає» його до зв’язного зображення.
Важлива деталь: модель працює не з пікселями напряму, а у так званому латентному просторі — стислому представленні зображення. Це і робить Stable Diffusion значно ефективнішим за попередні моделі: менше обчислень, менше пам’яті, можна запустити на звичайному ПК.
Ваш текстовий опис (промпт) перетворюється у числовий вектор, який «направляє» процес прибирання шуму в потрібний бік. Саме тому правильно написаний промпт — це половина результату.
Що вміє Stable Diffusion
- Text-to-image — генерація з тексту. Базова функція.
- Image-to-image — трансформація існуючого зображення за промптом.
- Inpainting — «малювання» в окремій частині фото. Замінили фон, прибрали зайвий об’єкт — це сюди.
- Outpainting — розширення зображення за його межі.
- ControlNet — контроль композиції через контури, глибину, пози людей. Серйозний інструмент для тих, кому важлива точність.
- Stable Video Diffusion — генерація відео з зображення або тексту.
Це не просто «намалюй картинку». Це повноцінний стек інструментів для роботи з візуальним контентом.
Покроковий гайд: як почати користуватися Stable Diffusion

Є два шляхи. Перший — онлайн, без встановлення. Другий — локально на комп’ютері. Розберемо обидва.
Варіант 1: Онлайн — для тих, хто хоче спробувати прямо зараз
Якщо у вас немає потужної відеокарти або просто хочете протестувати без встановлення:
- Зайдіть на Stability AI — базовий доступ є безкоштовно після реєстрації.
- Введіть опис зображення англійською мовою (модель значно краще розуміє англійські промпти).
- Натисніть «Generate» і чекайте результату.
Обмеження онлайн-варіанту: ліміти генерацій на день, черги у пікові години, ваші запити зберігаються на чужих серверах.
Варіант 2: Локальна установка через AUTOMATIC1111 (найпопулярніший спосіб)
AUTOMATIC1111 — це веб-інтерфейс для Stable Diffusion, який запускається прямо на вашому комп’ютері. Зараз найпоширеніший локальний інтерфейс у світі з понад 100 000 зірок на GitHub.
Що потрібно вашому комп’ютеру
Перш ніж щось встановлювати, перевірте свою відеокарту. Це критично важливо:
- Мінімум: NVIDIA GPU з 6 ГБ відеопам’яті (VRAM). SD 1.5 запуститься навіть на 4 ГБ, але дуже повільно.
- Комфортно: NVIDIA RTX 3060 (12 ГБ VRAM) або краще. RTX 3060 з 12 ГБ — бюджетний стандарт спільноти для SDXL.
- Для SD 3.5 Large: офіційно потрібно 18 ГБ VRAM, але після оптимізацій від NVIDIA (FP8 + TensorRT) — вимога знизилася до ~11 ГБ.
- RAM: мінімум 16 ГБ, краще 32 ГБ.
- Диск: мінімум 12 ГБ вільного місця, краще 50+ ГБ — моделі важкі.
- ОС: Windows 10/11, Linux або macOS.
Важливо: AMD GPU підтримується, але через DirectML — повільніше і з обмеженнями. NVIDIA з CUDA — оптимальний вибір.
Покрокова установка AUTOMATIC1111
- Встановіть Python 3.10. Завантажте з python.org. Під час інсталяції поставте галочку «Add to PATH» — інакше нічого не запрацює.
- Встановіть Git. Завантажте з git-scm.com і встановіть із налаштуваннями за замовчуванням.
- Завантажте AUTOMATIC1111. Відкрийте командний рядок (cmd або PowerShell) і виконайте:
git clone
Перейдіть у папку:cd stable-diffusion-webui - Завантажте модель. Зайдіть на HuggingFace / stabilityai і завантажте потрібну модель (наприклад, SDXL 1.0 або SD 3.5 Medium). Файл має розширення
.safetensors. Покладіть його у папкуstable-diffusion-webui/models/Stable-diffusion/. - Запустіть. У Windows — двічі клікніть на файл
webui-user.bat. У Linux/Mac — запустіть./webui.sh. Перший запуск займе 10–20 хвилин — встановлюються залежності. - Відкрийте браузер. Перейдіть за адресою
http://127.0.0.1:7860. Ви побачите веб-інтерфейс прямо у браузері. - Введіть промпт і генеруйте. У поле «Prompt» введіть опис англійською. Наприклад:
a photo of a cat in a space suit, ultra-detailed, 8k, cinematic lighting. Натисніть «Generate».
Перша генерація займе довше — модель завантажується в пам’ять. Наступні будуть швидшими.
Варіант 3: ComfyUI — для тих, хто хоче більше контролю
ComfyUI — альтернативний інтерфейс на основі вузлів (nodes). Кожен крок генерації — окремий вузол, їх можна з’єднувати як завгодно. Складніше для новачка, але значно гнучкіше. Активно використовується у VFX-студіях та ігровій індустрії.
Для першого знайомства — AUTOMATIC1111. ComfyUI — коли захочеться більшого.
Чесний цифровий аудит: плюси, мінуси та реальні ризики

Що реально добре
- Безкоштовно і назавжди. Основні моделі доступні за ліцензією Community License: безкоштовно для некомерційного використання та комерційного — якщо ваш дохід до $1 млн на рік.
- Повна конфіденційність. Локальна установка — ваші запити нікуди не йдуть. Це принципово важливо для корпоративних задач і особистих проєктів.
- Гігантська екосистема. HuggingFace Hub понад 500 000 публічних файлів моделей, пов’язаних зі Stable Diffusion. Civitai — спільнота з понад 10 млн користувачів і мільйоном завантажених моделей. Є модель для будь-якого стилю.
- Гнучкість налаштування. ControlNet, LoRA, inpainting, outpainting — все це доступне локально без доплат.
- Права на зображення — ваші.За умовами використання, Stable Diffusion не претендує на права щодо згенерованих зображень.
Що реально погано
- Потрібна відеокарта. Без нормального GPU — або дуже повільно, або зовсім не запуститься. Це не інструмент для старого ноутбука.
- Складність установки для новачків. Командний рядок, Python, Git — для людей без технічної освіти це може стати справжнім квестом. AUTOMATIC1111 спрощує процес, але не до рівня «натиснути одну кнопку».
- Якість промптів вирішує все. Без знання того, як писати промпти, результати будуть середніми. Це навичка, яку потрібно прокачувати окремо.
- SD 3 мав провал на старті. Сама Stability AI визнала, що перший реліз SD 3 Medium «не відповідав стандартам спільноти» — тому знадобилося додаткове доопрацювання до SD 3.5.
- Ліцензійна плутанина. Компанія спочатку ввела платну комерційну ліцензію для SD 3, що викликало шквал критики. Потім відкотила рішення. Юридична прозорість — не найсильніша сторона Stability AI.
Скільки це коштує насправді
Якщо є нормальна відеокарта — $0 за сам інструмент. Але є приховані витрати:
- Електроенергія: RTX 4090 споживає до 450 Вт. При активному використанні рахунки ростуть помітно.
- Жорсткий диск: кожна модель важить від 2 до 10+ ГБ. Якщо хочете колекцію — потрібен окремий SSD на 500+ ГБ.
- Час на налаштування: для новачка — реалістично закладайте 2–4 години на першу установку та ще стільки ж на розуміння того, що взагалі відбувається.
Хмарний варіант: якщо GPU не вистачає, є Google Colab (безкоштовний рівень з обмеженнями), RunPod або Vast.ai — оренда GPU від ~$0.39/год. Для разових проєктів — цілком розумно.
Поширені питання
Stable Diffusion справді безкоштовний?
Так — для особистого використання та комерційного, якщо ваш дохід менше $1 млн на рік. Це умова ліцензії Stability AI Community License для SD 3.5. Моделі попередніх версій (SD 1.5, SDXL) мають ще ліберальніші ліцензії. Для великого бізнесу потрібна окрема корпоративна ліцензія — ціну треба уточнювати безпосередньо у Stability AI.
Чи потрібен потужний комп’ютер?
Залежить від версії. SD 1.5 запускається навіть на відеокарті з 4 ГБ VRAM, хоча повільно. Для комфортної роботи з SDXL рекомендується мінімум 8 ГБ VRAM, а краще — 12 ГБ. SD 3.5 Large офіційно вимагав 18 ГБ, але після оптимізацій NVIDIA і Stability AI вимогу знизили до приблизно 11 ГБ. Якщо GPU немає — є хмарні варіанти.
Чи можна використовувати Stable Diffusion для комерційних проєктів?
Можна, але з застереженнями. Ліцензія Community License дозволяє комерційне використання до $1 млн річного доходу. При цьому важливо враховувати правовий контекст: судові справи Getty Images щодо тренувальних даних ще тривають, що створює певну правову невизначеність для комерційного застосування.
Яка різниця між Stable Diffusion і Midjourney?
Принципова. Midjourney — закрита хмарна платформа з підпискою від $10/міс, всі ваші запити зберігаються на їхніх серверах, налаштування обмежені. Stable Diffusion — відкрита модель, яка запускається локально, безкоштовна, повністю налаштовується. Midjourney часто дає візуально яскравіший результат «з коробки», але Stable Diffusion значно гнучкіший і конфіденційніший.
Як написати хороший промпт для Stable Diffusion?
Базові правила: пишіть англійською, описуйте конкретно (стиль, освітлення, ракурс, матеріали), використовуйте технічні теги якості (ultra-detailed, 8k, photorealistic, cinematic lighting). Негативний промпт (що НЕ хочете бачити) важливий не менше за основний — він допомагає прибрати типові артефакти. Вивчення написання промптів — окремий навик, але базові результати можна отримати вже за годину практики.
Висновок та рекомендації
Stable Diffusion — не чарівна кнопка «натиснув і все класно». Це потужний інструмент з реальним порогом входу: потрібна відеокарта, потрібен час на налаштування, потрібно вчитися писати промпти. Маркетинг навколо AI-генерації зображень часто малює ідеальну картину — я вам намалював реальну.
Але якщо ви готові до цього входу — отримуєте щось унікальне: повноцінний AI-інструмент, який повністю під вашим контролем, безкоштовний для більшості сценаріїв використання і не залежить від чужих серверів та підписок. Для дизайнерів, розробників, контент-мейкерів — це реально цінний інструмент у арсеналі.
Починайте з онлайн-демо на Hugging Face — просто щоб відчути, що це таке. Якщо зацікавить — встановлюйте AUTOMATIC1111 локально і досліджуйте. Спільнота велика, туторіалів море, і більшість питань новачків вже хтось задавав до вас.
Якщо стаття була корисною — поділіться нею з колегами в соцмережах. Це найкращий спосіб підтримати незалежну аналітику без реклами та замовних матеріалів.
Джерела:
- Wikipedia: Stable Diffusion
- Stability AI — офіційні новини
- HuggingFace: SD 3.5 Large — ліцензія та технічні деталі
- SiliconAngle: реліз SD 3.5
- TweakTown: оптимізація VRAM для SD 3.5
- SynpixCloud: вимоги до GPU по моделях
- Wikipedia: Stability AI
Автор: Lumir
Дивіться також:
DALL-E 3 від OpenAI: що це таке, як ним користуватись і чи варто взагалі
Midjourney безкоштовно чи платно: чи варто купувати підписку
Як користуватися Midjourney: покрокова інструкція українською
Що таке Midjourney: чесний огляд AI-генератора зображень
Що таке Microsoft Copilot — розбираю без маркетингу
Як використати NotebookLM для навчання: практичний гайд українською
NotebookLM від Google: що це таке, як ним користуватись і чи варто
ШІ для пошуку роботи за кордоном: як скласти CV та листа мотивації англійською
Як за допомогою ШІ написати скаргу або заяву в держорган: шаблони та приклади



