Шрифт:
Современные модели ИИ называют большими языковыми моделями (LLM, Large Language Models). В основе их работы лежит принцип трансформера, разработанный специалистами Google в 2017 году: ИИ присваивает словам и выражениям разный вес и сосредоточивается на наиболее значимых частях текста, чтобы облегчить понимание и создать более человечный ответ на запрос.
С технической точки зрения ChatGPT действует как очень сложный автозаполнитель, как в поисковике: ему дают начальный текст, который он продолжает на основе вероятностного анализа.
ИИ непрерывно обучается на огромном количестве текстов, оценивая их значимость и анализируя взаимосвязи между словами и их частями.
В версии ChatGPT конца 2023 года содержалось 175 млрд кодов, описывающих взаимные связи слов и частей слов. Важно, что эти коды не были заданы в ИИ изначально, он сгенерировал их сам в процессе работы.
Модели ИИ для обработки изображений обучаются на картинках, сопровождаемых соответствующими текстовыми подписями. Сопоставляя изображение с его описанием, модель учится ассоциировать слова с визуальными концепциями.
Модели ИИ, которые работают с текстами и с изображениями, называют мультимодальными.
Поначалу картинка может быть очень странной или искаженной – но за несколько итераций модель постепенно добивается большой реалистичности изображения. Чем глубже обучается модель, тем успешнее она превращает текстовые запросы в релевантные картинки.
Необходимость масштабного обучения делает производство ИИ очень дорогим и доступным ограниченному числу компаний.
Потребность в огромных объемах данных для обучения также обостряет вопросы авторского права и защиты информации. Как быть, если ИИ точно воспроизводит уникальный стиль художника или автора текстов? Что делать, если ИИ получил в свое распоряжение конфиденциальную информацию? Ответов на большинство этих вопросов у человечества пока нет.
Из всех стран мира пока только Япония уже приняла закон о том, что ИИ имеет право обучаться на любых данных, которые стали ему доступны.
Возникают также вопросы к этическим границам действий ИИ. ИИ безразлично, предлагать пользователю рецепт яичницы с беконом или рецепт взрывчатки, милую картинку или изображение сцен жесткого насилия. Но для человека эта разница огромна.
Чтобы скорректировать ответы ИИ с точки зрения этики и параллельно улучшить их релевантность запросам, модели ИИ проходят и вторую фазу обучения – так называемую тонкую настройку, в которой участвуют живые люди
Конец ознакомительного фрагмента.