Уведомления
Авторизуйтесь или зарегистрируйтесь, чтобы оценивать материалы, создавать записи и писать комментарии.
Авторизуясь, вы соглашаетесь с правилами пользования сайтом и даете согласие на обработку персональных данных.
#OpenAI
На прошлой неделе компания OpenAI презентовала новейшую версию популярного чат-бота ChatGPT, которая с легкостью проходит тесты и сдает экзамены, умеет писать код на разных языках программирования и вообще, по словам разработчиков, демонстрирует «производительность на уровне человека». Однако, согласно экспертному анализу наблюдательного органа NewsGuard, который отслеживает дезинформацию в Интернете, GPT-4 работает даже хуже, чем ее предшественница, когда дело доходит до явно ложных высказываний.
Предыдущее поколение алгоритма обработки естественного языка — GPT-3 — в свое время наделало шуму. Искусственный интеллект генерировал тексты, которые с минимальной доработкой можно было публиковать так, будто они созданы человеком. Следующим шагом стал виртуальный собеседник ChatGPT, который до сих пор не перестает удивлять даже специалистов. На этом фоне появился анонс выхода совершенно новой языковой модели GPT-4, и она обещает настоящую революцию в отрасли.
Спустя два месяца после того, как технологическая компания OpenAI представила свою текстовую нейросеть ChatGPT публике, студенты стали активно использовать новый ИИ, чтобы сдавать экзамены, писать курсовые, эссе и так далее. Это привело к тому, что университеты начали пытаться пресекать использование ChatGPT.
В редакционной статье, опубликованной журналом Scientific American, шведская исследовательница Альмира Османович Тунстрем (Almira Osmanovic Thunström) рассказывает, как в ходе простого эксперимента, во время которого тестировались способности алгоритма генерации текста OpenAI GPT-3 по написанию текстов о себе самом, получился очень интересный результат. Этот результат — настоящая статья в настоящий научный журнал, и она сейчас как раз проходит рецензирование.
Нейросеть DALL-E 2, генерирующая изображения на основе текстового описания, нарисовала обложку для журнала Cosmopolitan. Редакторы журнала, члены исследовательской лаборатории искусственного интеллекта OpenAI и художник Карен Икс совместно протестировали возможности нейросети задав различные текстовые запросы и в итоге, выбрав обложку, представленную ниже, которую DALL-E 2 сгенерировала на довольно сложный запрос: «широкоугольный снимок с нижнего ракурса женщины-астронавта со спортивным телосложением, самодовольно идущей к камере на Марсе в бесконечной Вселенной в стиле цифрового искусства».
В январе 2021 года OpenAI представила DALL-E, нейронную сеть, которая может «использовать любой текст и создавать на его основе изображение». Прошел год и OpenAI представила обновленную версию предыдущей программы под названием DALL-E 2. Согласно сайту OpenAI , «DALL-E 2 — новая система искусственного интеллекта, которая может создавать реалистичные изображения и рисунки из описания пользователя».
Ведущий исследователь компании OpenAI (фирма занимает разработкой и лицензированием технологий на основе машинного обучения) Илья Суцкевер написал в Twitter: «Возможно, большие нейронные сети, которые уже существует сегодня, немного обладают сознанием». Заявление Суцкевера не осталось незамеченным и вызвало бурную реакцию со стороны многих ученых, работающих в области искусственного интеллекта.
- 1
- 2
Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.
ПонятноИз-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.
ПонятноНаши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.
ПонятноМы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.
ПонятноМы скоро прочитаем его и свяжемся с Вами по указанной почте. Спасибо за интерес к проекту.
Понятно
Последние комментарии