Новости OpenAI представила мультимодальную модель GPT-4

Тема в разделе "Новости криптовалют", создана пользователем CoinProject.info, 15 Март 2023.

Реклама
  1. CoinProject.info

    CoinProject.info Топ Мастер ПРЕМИУМ

    Сообщения:
    32,709
    Симпатии:
    41
    Пол:
    Мужской
    Сайт:
    Компания OpenAI представила большую мультимодальную модель GPT-4.


    Announcing GPT-4, a large multimodal model, with our best-ever results on capabilities and alignment: https://t.co/TwLFssyALF pic.twitter.com/lYWwPjZbSg

    — OpenAI (@OpenAI) March 14, 2023

    Согласно анонсу, GPT-4 может решать «сложные проблемы с большей точностью благодаря своим более широким общим знаниям и возможностям».

    По словам разработчиков, модель может по запросу пользователя принимать ту или иную роль. Например, ее можно попросить стать юристом или репетитором. В таком случае GPT-4 будет точнее обрабатывать запросы, связанные с конкретной областью знаний.

    В демонстрационном видео президент OpenAI Грег Брокман показал, как можно научить сервис быстро отвечать на вопросы, связанные с налогообложением.


    «Эта модель так хороша в ментальной арифметике. Она обладает широкими и гибкими возможностями», — сказал он.

    В OpenAI добавили, что по сравнению с GPT-3.5 новый алгоритм надежнее, креативнее и способен обрабатывать тонкие инструкции.

    По сравнению с предшественником GPT-4 генерирует значительно более объемнее тексты: 25 000 слов против 3000.

    OpenAI представила мультимодальную модель GPT-4
    Лимит слов, установленный в ChatGPT и GPT-4. Данные: OpenAI.

    В отдельном видео говорится, что модель обладает рядом возможностей, которых не было у предыдущей версии технологии, включая способность «рассуждать» на основе изображений, загруженных пользователями.

    OpenAI представила мультимодальную модель GPT-4
    GPT-4 описывает, что видит на картинке. Данные: OpenAI.

    «GPT-4 — это большая мультимодальная модель, которая, хотя и менее функциональна, чем люди во многих реальных сценариях, демонстрирует производительность на уровне человека в различных профессиональных и академических тестах», — говорится в анонсе.

    По словам сотрудник OpenAI Андрея Карпати, обработка изображений означает, что ИИ может «видеть».


    OpenAI представила мультимодальную модель GPT-4 GPT-4 is out!!
    OpenAI представила мультимодальную модель GPT-4 it is incredible
    OpenAI представила мультимодальную модель GPT-4 it is multimodal (can see)
    OpenAI представила мультимодальную модель GPT-4 it is on trend w.r.t. scaling laws
    OpenAI представила мультимодальную модель GPT-4 it is deployed on ChatGPT Plus: https://t.co/WptpLYHSCO
    OpenAI представила мультимодальную модель GPT-4 watch the developer demo livestream at 1pm: https://t.co/drEkxQMC9H https://t.co/WUYzwyxOqa

    — Andrej Karpathy (@karpathy) March 14, 2023

    Помимо этого, OpenAI выпустила научную работу о GPT-4. Однако разработчики решили не разглашать подробности о размере модели, ходе ее обучения и используемы в рамках этого процесса данных.

    Технология доступна подписчикам ChatGPT Plus с некоторыми ограничениями. Компания также открыла список ожидания для желающих воспользоваться API новой модели.

    OpenAI сообщила, что уже сотрудничает с некоторыми компаниями над интеграцией алгоритма в их приложения, в том числе с Duolingo, Stripe и Khan Academy.

    OpenAI представила мультимодальную модель GPT-4
    Приложение Duolingo с интегрированным GPT-4. Данные: Duolingo.

    После анонса Microsoft подтвердила слухи, что новый Bing работает на оптимизированной для поиска версии GPT-4.

    Напомним, в ноябре 2022 года OpenAI представила ChatGPT. За два месяца сервис стал самым быстрорастущим в истории, достигнув 100 млн активных пользователей.

    В феврале 2023 года Microsoft выпустила обновленный поисковик Bing на базе ChatGPT.

    В марте число активных пользователей сервиса превысило 100 млн.

    Новость OpenAI представила мультимодальную модель GPT-4 на сайте CoinProject.info.
     

    Понравился пост? Поделись с друзьями!

Реклама