Лаборатория OpenAI разработала сходу две новейшие нейросети: DALL-E и CLIP. 1-ый отвечает за создание новейший изображений, используя в качестве базы обычное описание. 2-ой же описывает объекты и систематизирует их, также делая упор на текстовое описание.
DALL-E
Рисунки, которые генерирует DALL-E, «придумываются» нейросетью без помощи других, пишет TechCrunch. Логика, по которой работает разработка, идентична с такой в GPT-3. В этом случае применяется пара текст-изображение, выставленные как последовательность «токенов» из определенного алфавита.
GPT-3 показал нам, что язык можно употреблять для обучения большенный нейросети делать разные задачки по генерации текста. Image GPT показал, что этот же тип нейронной сети можно употреблять и для генерации изображений с высочайшей точностью. Мы расширили эти выводы, чтоб показать, что манипулирование зрительными концепциями при помощи языка уже в границах досягаемости.
OpenAI
DALL-E умеет создавать изображения звериных, интерьера и экстерьера, пищи и т.д. При всем этом юзеру только довольно написать что-то типа «фото бюста Гомера».
CLIP
Представила OpenAI и вторую свою разработку — нейросеть CLIP. Она, в отличие от предшествующей технологии, напротив занимается определением объектов на изображении. Для этого ИИ обращается к описанию предмета, причём ко всему тексту, а не тегу из 1-го слова.
Специалисты TechCruch окрестили выставленные новинки «сказочно увлекательными и массивными работами». По их воззрению, DALL-E и CLIP повторят судьбу иных проектов OpenAI и перевоплотился во что-то ещё наиболее необычное.
Источник: TechCrunch
Источник: