Запуск моделі o3-mini від OpenAI став відповіддю на прорив китайського стартапу DeepSeek. Їхній R1-модель здивувала ринок, забезпечивши продуктивність на рівні топових AI-систем при мінімальних витратах обчислювальних ресурсів.
OpenAI кидає виклик: що нового в o3-mini?
У п’ятницю 31 січня 2025 р, OpenAI поспіхом випустила o3-mini, прагнучи захистити свою ринкову позицію. У блозі компанія повідомила:
“Ми випускаємо OpenAI o3-mini – нашу найефективнішу модель у серії reasoning AI, доступну вже сьогодні в ChatGPT та через API.”
Новий реліз дозволяє користувачам безкоштовно користуватися покращеними аналітичними можливостями моделі, а для платних клієнтів добова квота повідомлень зросла з 50 до 150.
На відміну від GPT-4o та попередніх генеративних моделей, серія “O” сфокусована на логічному аналізі. Вона краще обробляє складні запити, виправляє помилки в розрахунках та аналізує структуровані дані.
Як o3-mini змінює ринок?
Новинка представлена у трьох версіях: low, medium та high. Вони відрізняються рівнем продуктивності та витратами на обчислення.

Зображення: OpenAI
Недоліки:
- У загальних знаннях та багатомовному аналізі o3-mini поступається своїй попередниці o1-mini.
- Рівень продуктивності все ще не досягає DeepSeek R1 у деяких завданнях.
Переваги:
- Прискорене обчислення на 24% швидше, ніж у попередніх версій.
- Поліпшена точність у програмуванні та фактичних відповідях.
- Дешевші тарифи, хоча вони ще не зрівнялися з цінами DeepSeek R1.
Ціни:
- OpenAI o3-mini: $0.55 за мільйон вхідних токенів, $4.40 за мільйон вихідних токенів.
- DeepSeek R1: $0.14 і $2.19 відповідно (вдвічі дешевше).
Значне здешевлення o3-mini свідчить про спробу OpenAI зменшити відрив від DeepSeek, який продовжує руйнувати традиційну модель AI-індустрії.
DeepSeek vs OpenAI: хто кращий?
DeepSeek R1 вразила ринок тим, що забезпечує продуктивність на рівні OpenAI GPT при мінімальному споживанні ресурсів. Це спричинило паніку серед інвесторів і навіть спровокувало масовий розпродаж акцій технологічних компаній на $1 трлн. Nvidia втратила $600 млрд ринкової капіталізації, оскільки інвестори почали сумніватися в майбутньому дорогих AI-чіпів.
Головна відмінність підходів:
- Американські компанії прагнуть збільшити потужність AI через розширення обчислювальних ресурсів.
- DeepSeek оптимізує алгоритми та використовує менше обладнання, що робить їхні моделі значно дешевшими.
Ще більший тиск на ринок створив китайський гігант Alibaba, який випустив Qwen2.5 Max – ще потужнішу AI-модель, що може визначати нові стандарти у галузі.
Порівняння продуктивності: хто виграє?
Ось як виглядають головні показники продуктивності моделей:
Рівень успішності на математичному бенчмарку AIME:
- DeepSeek R1 – 79.8
- o3-mini low – 70.6
- o3-mini high – 87.3
Наукова грамотність (GPQA):
- DeepSeek R1 – 71.5
- o3-mini low – 70.6
- o3-mini high – 79.7
Рейтинг у програмуванні (Codeforces, % успішності):
- DeepSeek R1 – 96.3%
- o3-mini low – 93%
- o3-mini high – 97%
Різниця є, але в багатьох випадках вона не є критичною, що залишає простір для конкуренції між компаніями.
Практичний тест: хто розумніший?
Ми випробували обидві моделі в кількох завданнях:
Логічна головоломка: моделі мали розслідувати серію зникнень у школі (на основі BIG-bench із GitHub).
- DeepSeek R1 правильно визначив ім’я винуватця.
- o3-mini помилився і назвав інше ім’я (до речі, ми не змогли поділитися скріншотом відповіді, оскільки OpenAI позначив його як “небезпечний контент”).
Мовні завдання: створення речень із заданими словами.
- o3-mini показав хорошу логіку, виправив помилки та видав правильну відповідь через 4 секунди аналізу.
Що буде далі?
OpenAI зробила серйозний крок, намагаючись повернути втрачені позиції. Випуск o3-mini – це сигнал, що компанія намагається оптимізувати свої AI-рішення та зробити їх більш доступними.
Проте DeepSeek продовжує задавати нові стандарти ефективності. Якщо OpenAI не знайде спосіб значно скоротити витрати на обчислення, вона ризикує поступитися ринком китайським AI-розробникам.
Чия стратегія переможе? Поживемо-побачимо!