Презентацію GPT-4 обіцяють вже в середині березня, буде підтримувати обробку відео

GPT-4 з’явиться наступного тижня (приблизно 13-19 березня) та матиме можливість обробляти відео. Як повідомляє Heise online з посиланням на слова технічного директора Microsoft в Німеччині Андреаса Брауна, GPT-4 буде мультимодальною, тобто об’єднуватиме різні режими введення даних (текст, аудіо, зображення та відео).

Презентація GPT-4

«Ми представимо GPT-4 наступного тижня, там у нас будуть мультимодальні моделі, які пропонуватимуть зовсім інші можливості — наприклад, відео», — заявив технічний директор Microsoft в Німеччині Андреас Браун.

Він також додав, що завдяки LLM (Large Language Models) GPT-4 зможе сприймати природну мову, а потім статистично обробляти те, що раніше було зрозумілим і читаним лише людям. Технологія просунулася настільки далеко, що практично «працює всіма мовами»: ви можете поставити запитання німецькою, а отримати відповідь італійською. Завдяки мультимодальності Microsoft та OpenAI хочуть «зробити моделі комплексними».

Чому це цікаво?

Компанія OpenAI днями представила оновлення своєї AI-технології обробки мови GPT-3.5, а також чат-бота, який працює на цьому алгоритмі лише в грудні 2022 року. Користувачі, що вже спробували GPT-3.5, вражені тим, наскільки близько штучний інтелект підібрався до копіювання людини у написанні текстів та відповіді на іноді досить складні питання.

Вже в січні 2023 року, тобто всього через місяць після релізу GPT-3.5 та ChatGPT, стало відомо, що OpenAI працює над відео сервісом на основі нейромереж та наступним поколінням GPT-4. Тоді інсайдери повідомляли, що GPT-4 OpenAI буде запущено лише тоді, коли вони зможуть «зробити це безпечно та відповідально», а випуск йде «набагато повільніше, ніж хотілося б».

Залишити коментар

Коментарі | 0

Пошук