OpenAI вкарва и речта в подобрена версия на ChatGPT
OpenAI обяви пускането на GPT-4o – версия на модела GPT-4, който е в основата на чатбота ChatGPT. Актуализираният модел “е много по-бърз“ и подобрява “възможностите за работа с текст, визия и аудио“, посочват от компанията.
КЛЮЧОВИ ФАКТИ
- Новата версия ще е безплатна за всички потребители, а платената форма ще позволи достъп на абонатите до 5 пъти по-голям капацитет.
- Буквата “о” в GPT-4o означава “omni“, което се отнася до способността на модела да работи с текст, реч и видео.
- Гласовите команди все още не са обаче достъпни. OpenAI, заявява, че планира да пусне поддръжка на новите аудио възможности на GPT-4o първо за “малка група доверени партньори“ през следващите седмици от съображения за сигурност.
ВАЖЕН ЦИТАТ
“GPT-4o разсъждава на база глас, текст и изображения. А това е изключително важно за бъдещето на взаимодействието между нас и машините”, заяви Мира Мурати – главен технологичен директор на OpenAI.
АКЦЕНТ
Това е още една крачка в усъвършенстването на моделите с изкуствен интелект. Очаква се, че в бъдеще GPT-4o би могъл да позволи на ChatGPT например да “гледа“ спортен мач на живо и да обясни правилата на играта.
КАКВО Е РАЗЛИЧНО
Новата версия е продължение на GPT-4 Turbo, който беше обучен върху комбинация от изображения и текст и можеше да анализира изображения и текст, за да изпълнява задачи като извличане на текст от изображения или дори описване на съдържанието на тези изображения. GPT-4o добавя и реч.
Платформата отдавна предлага гласов режим, който транскрибира отговорите на чатбота, използвайки модел за преобразуване на текст в реч, но GPT-4o го подобрява, позволявайки на потребителите да взаимодействат с ChatGPT по-скоро като с асистент.
Например – потребителите могат да зададат въпрос на ChatGPT, задвижван от GPT-4o, и да прекъснат ChatGPT, докато той отговаря. Според OpenAI моделът реагира в “реално време“ и дори може да улавя нюансите в гласа на потребителя, като в отговор генерира гласове в “редица различни емоционални стилове“.