Что такое искусственный интеллект - все что вам нужно знать про новую технологию
Большинство людей впервые узнали про искусственный интеллект во время просмотра фильма "Терминатор"
Джеймса Кэмерона. С тех пор человечество смотрит на искусственный интеллект с осторожностью, а некоторые люди даже побаиваются его возможностей. Судя по многочисленным отзывам у режиссера фантастического фильма получилось напугать зрителей возможным будущим, где человечество было почти уничтожено искусственным интеллектом. Но давайте разберемся в действительности, что же такое искусственный интеллект?!
реклама
В широком смысле искусственный интеллект (ИИ) — это комбинация математических алгоритмов, компьютерного программного обеспечения, аппаратного обеспечения и надежных наборов данных, используемых для решения какой-либо проблемы. В каком-то смысле искусственный интеллект — это сложная обработка информации с помощью мощной программы или алгоритма. Но при этом ИИ не просто занимается обработкой информации, он также является самой программой или алгоритмом.
Какое отношение искусственный интеллект имеет к человеческому мозгу?
Во многих определениях искусственного интеллекта проводится сравнение с человеческим разумом или мозгом, как по форме, так и по функциям. Алан Тьюринг написал в 1950 году о «мыслящих машинах», которые смогут ответить на вопрос или решить задачу, используя человекоподобные рассуждения. Его одноименный тест Тьюринга до сих пор остается эталоном обработки естественного языка. Однако позже Стюарт Рассел и Джон Норвиг отметили, что люди обладают интеллектом, но не всегда рациональны.
реклама
По определению Джона Маккарти, данному в 2004 году, искусственный интеллект - это "наука и техника создания интеллектуальных машин, и в особенности интеллектуальных компьютерных программ". Это связано с аналогичной задачей, где компьютер используется для понимания человеческого интеллекта, но ИИ не обязан ограничиваться методами, которые поддаются биологическому наблюдению».
Рассел и Норвиг предсказали два вида искусственного интеллекта: системы, которые мыслят и действуют рационально, и системы, которые мыслят и действуют как человек. Но есть области, где эта грань начинает размываться. Искусственный интеллект и мозг используют иерархическую, глубоко параллельную сетевую структуру для организации получаемой ими информации. Независимо от того, запрограммирован ли ИИ действовать как человек или нет, на очень низком уровне ИИ обрабатывает данные так же, как и человеческий мозг, и как многие другие формы биологической жизни.
Искусственный интеллект против нейронных сетей, глубокого обучения и машинного обучения.
реклама
Чем отличается нейронная сеть от обычного программного обеспечения? Ее структурой. Код нейронной сети пишется для эмуляции некоторых аспектов архитектуры нейронов или мозга.
Разница между нейронной сетью и AI часто сводится к философии больше, чем к возможностям или дизайну. Производительность надежной нейронной сети может равняться или превосходить производительность узкоспециализированного искусственного интеллекта. Многие современные системы, заявленные как "работающие на основе искусственного интеллекта", на самом деле являются нейронными сетями. Это объясняется тем, что ИИ — это не просто несколько нейронных сетей, соединенных вместе, точно так же в мультфильме про Покемонов, где Чаризард — это как три Чармандера в одном теле. Все эти различные типы искусственного интеллекта пересекаются по спектру сложности. Например, мощный искусственный интеллект GPT-4 (Generative Pretrained Transformer 4) от OpenAI представляет собой тип нейронной сети, называемый трансформером (подробнее об этом ниже).
Между нейронными сетями и искусственным интеллектом есть много общего, но главным отличием является способность к машинному обучению. Ведь ИИ, который никогда не учится, не очень-то и умный.
реклама
IBM поясняет: «[Машинное] обучение — это подобласть искусственного интеллекта. Глубокое обучение — это подобласть машинного обучения, а нейронные сети составляют основу алгоритмов глубокого обучения. Фактически, именно число слоев узлов, или глубина, нейронных сетей отличает отдельную нейронную сеть от алгоритма глубокого обучения, в котором должно быть более трех [слоев]».
Что такое AGI?
AGI означает искусственный интеллект общего назначения. Другими словами, AGI — это своего рода усовершенствованный вариант персонального ИИ. Современным ИИ часто требуются определенные входные параметры, поэтому их возможности делать что-либо, кроме того, для чего они были созданы, ограничены. Теоретически AGI может понять, как "думать" самостоятельно, чтобы решать проблемы, которым он не обучен. Некоторые исследователи обеспокоены тем, что может произойти, если AGI начнет делать выводы, которых мы не просили.
В художественной литературе, когда ИИ перестаёт подчиняться создателям, то есть угрожает людям, зачастую соответствует определению AGI. К примеру, робот WALL-E от Disney/Pixar представляет собой пример бодрого маленького мусорного робота, который столкнулся с безумным ИИ по имени AUTO. До появления WALL-E существовали HAL и Skynet – примеры ИИ, достаточно сложных, чтобы возненавидеть своих создателей и представлять угрозу для человечества.
Из чего состоит искусственный интеллект?
Концептуально логическая структура ИИ имеет три фундаментальные части. Первая, это процесс принятия решения — обычно это уравнение, модель или просто какой-то код. Вторая, это функция проверки ошибок — некий способ, с помощью которого ИИ может проверить свою проделанную работу. И третья, если ИИ будет учиться на собственном опыте, ему понадобится какой-то способ оптимизировать свою модель. Многие нейронные сети делают это с помощью системы взвешенных узлов, где каждый узел имеет значение и отношение к своим соседям по сети. Значения изменяются со временем; более сильные связи имеют больший вес в функции ошибки.
Физически, ИИ – это, как правило, «всего лишь» программное обеспечение. Нейронные сети состоят из уравнений или команд, написанных на таких языках, как Python или Common Lisp. Они проводят сравнения, выполняют преобразования и выявляют закономерности в данных. Коммерческие ИИ-приложения обычно запускаются на серверном оборудовании, но ситуация начинает меняться. В начале 2023 года AMD выпустила первый встроенный NPU (нейронный процессор) со своими мобильными чипами Ryzen 7040. Intel последовала этому примеру, выпустив специальный кремний, интегрированный в Meteor Lake. Специализированные аппаратные нейронные сети работают на особом типе "нейроморфных" микросхем ASIC вместо CPU, GPU или NPU.
Нейронные сети и нейроморфные чипы.
Нейронная сеть — это программное обеспечение, а нейроморфный чип — это тип аппаратного обеспечения, называемый ASIC (интегральная схема для конкретного приложения). Не все ASIC являются нейроморфными микросхемами, но все нейроморфные чипы являются ASIC. Нейроморфный дизайн фундаментально отличается от процессоров и лишь номинально пересекается с многоядерной архитектурой графического процессора. Но это не какой-то экзотический новый тип транзистора или какая-то странная и жуткая структура данных. Все дело в тензорах. Тензоры описывают взаимосвязи между объектами; они являются своего рода математическим объектом, который может иметь метаданные, так же как цифровое фото имеет данные EXIF.
Тензоры занимают видное место в движках физики и освещения многих современных игр, поэтому неудивительно, что графические процессоры выполняют большую часть работы с тензорами. Современные графические процессоры Nvidia RTX имеют огромное количество тензорных ядер. Они очень пригодились, когда пришлось отображать движущиеся многоугольники, каждый из которых имеет некоторые применимые к нему свойства или эффекты. Тензоры могут обрабатывать не только пространственные данные, поэтому графические процессоры Nvidia преуспевают в организации множества разных потоков одновременно.
Однако сколь бы совершенной ни была структура данных, прежде чем превратиться в двоичный код, ей приходится проходить через несколько слоёв программной абстракции. В этом плане чип Intel Loihi 2 предлагает принципиально иной подход.
Intel Loihi 2
Loihi 2 — это нейроморфный чип, который поставляется в комплекте с вычислительным фреймворком под названием Lava. Физическая архитектура Loihi по сути предполагает использование системы взвешивания и функции ошибки – обе являются определяющими характеристиками ИИ и нейронных сетей. Биомиметический дизайн чипа распространяется и на его электрические сигналы. Вместо нулей и единиц в состояниях «включено» или «выключено» Loihi «активируется» импульсами со значением целого числа, способными нести гораздо больший объем данных. Loihi 2 создан для работы с задачами, которые не очень хорошо подходят под сильные стороны существующих процессоров и видеокарт. Lava предоставляет общий программный стек, который может работать с нейроморфным и стандартным оборудованием. Платформа Lava явно разработана так, чтобы быть независимой от аппаратного обеспечения, и не привязана к нейроморфным процессорам Intel.
Модели машинного обучения, использующие Lava, могут полностью использовать уникальную физическую конструкцию Loihi 2. Вместе они предлагают гибридную аппаратно-программную нейронную сеть, которая может обрабатывать взаимосвязи между несколькими целыми многомерными наборами данных, подобно акробату, вращающему несколько тарелок. По данным Intel, прирост производительности и эффективности является наибольшим за пределами обычных сетей прямой связи, которые сегодня обычно работают на процессорах и графических процессорах. На графике ниже цветные точки в правом верхнем углу представляют наибольший прирост производительности и эффективности в том, что Intel называет «рекуррентными нейронными сетями с новыми биотехнологическими свойствами».
Архитектуры, использующие только прямую связь, ограничены по сравнению с архитектурами нейронных сетей, которые могут использовать преимущества обратной связи. Источник: Intel Labs
Intel ещё не анонсировала Loihi 3, но слухи о его появлении уже ходят, потому что компания регулярно обновляет платформу Lava. В отличие от обычных графических процессоров, центральных процессоров и NPU, нейроморфные чипы, такие как Loihi 1/2, в большей степени ориентированы на исследования. Сильная сторона нейроморфного дизайна в том, что он позволяет кремнию выполнять своего рода биомимикрию. Эти "электронные мозги" чрезвычайно дешевы с точки зрения энергопотребления на единицу пропускной способности. Есть надежда, что Loihi и другие нейроморфные системы смогут достичь высокой энергоэффективности, чтобы вырваться из "железного треугольника" и обеспечить все три качества: качественно, быстро и дешево.
IBM NorthPole
Процессор IBM NorthPole отличается от процессора Intel Loihi тем, что он делает и как он это делает. В отличие от Loihi или более ранней разработки IBM TrueNorth 2014 года, Northpole не является нейроморфным процессором. NorthPole полагается на традиционные вычисления, а не на импульсную нейронную модель, уделяя особое внимание задачам вывода, а не обучению модели. Что делает NorthPole особенным, так это то, как он сочетает в себе вычислительные возможности и память. В отличие от центральных и графических процессоров, которые потребляют огромную мощность, просто перемещая данные из точки А в точку Б, в NorthPole элементы памяти и вычислений интегрированы рядом друг с другом.
По словам Дхармендры Модхи из IBM Research, «с архитектурной точки зрения NorthPole стирает границу между вычислениями и памятью». «На уровне отдельных ядер NorthPole выглядит как память, расположенная рядом с компьютером, а снаружи чипа, на уровне ввода-вывода, он выглядит как активная память». IBM не использует эту фразу, но она звучит похоже на технологию «процессор в памяти», о которой Samsung говорил несколько лет назад.
NorthPole оптимизирован для типов данных с низкой точностью (от 2 до 8 бит) в отличие от стандарта FP16/bfloat16 с более высокой точностью, который часто используется для рабочих нагрузок ИИ, и избегает спекулятивного выполнения ветвей. Он не подходит для процесса обучения искусственного интеллекта, потому что NorthPole предназначен для задач вывода, а не обучения моделей LLM. Использование 2-битной точности и устранение спекулятивных ветвей позволяет чипу выполнять огромные параллельные вычисления, проходящие по всему чипу. Сообщается, что по сравнению с графическим процессором Nvidia, изготовленным по тому же 12-нм техпроцессу, NorthPole был в 25 раз более энергоэффективным. IBM утверждает, что он стал в 5 раз более энергоэффективным.
NorthPole все еще является прототипом, и IBM еще не сообщила, намерена ли она коммерциализировать этот проект. Этот чип не вписывается ни в одну из других групп, которые мы используем для разделения различных типов механизмов обработки ИИ. Тем не менее, это интересный пример того, как компании пробуют радикально разные подходы к созданию более эффективного процессора для искусственного интеллекта.
Как учится искусственный интеллект?
Процесс обучения ИИ отличается от простого сохранения отредактированного файла. Для ИИ стремление стать умнее предполагает машинное обучение.
Машинное обучение использует канал обратной связи, называемый «обратным распространением». Нейронная сеть обычно представляет собой процесс «упреждающей связи», поскольку данные перемещаются по сети только в одном направлении. Это эффективный, но в то же время своего рода баллистический (неуправляемый) процесс. Однако обратное распространение позволяет более поздним узлам процесса передавать информацию более ранним.
Не все нейронные сети выполняют обратное распространение ошибки, но для тех, которые это делают, эффект подобен изменению коэффициентов перед переменными в уравнении. Это важно, поскольку многие ИИ-приложения полагаются на математическую тактику, известную как градиентный спуск. В задаче с двумя переменными x и y градиентный спуск добавляет третье измерение z, превращая простой график в топографическую карту. Таким образом, местность на этой карте представляет собой пространство вероятностей. Катите шарик по этим склонам, и то, где он приземлится, определяет результат работы нейронной сети. Но если вы измените этот ландшафт, то изменится и то, куда попадет шарик.
Контролируемое и неконтролируемое обучение
Мы также делим нейронные сети на два класса в зависимости от задач, которые они могут решить. При обучении с "учителем" нейронная сеть проверяет свою работу на основе помеченного обучающего набора или наблюдения; в большинстве случаев этим наблюдателем является человек. Например, SwiftKey запоминает, как вы пишете текст, и настраивает автозамену в соответствии с ним. Pandora использует информацию слушателей для классификации музыки и создания специально адаптированных плейлистов. На ютуб-канале 3blue1brown есть отличная серия пояснений по нейронным сетям, в которой он обсуждает нейронную сеть, использующую контролируемое обучение для распознавания рукописного текста.
Обучение с учителем отлично подходит для обеспечения высокой точности при неизменном наборе параметров, таких как алфавиты. Однако обучение без учителя может привести к искажению данных из-за изменения количества измерений. (Уравнение с переменными x, y и z является трехмерным уравнением.) Обучение без учителя имеет тенденцию выигрывать при использовании небольших наборов данных. Он также помогает замечать тонкие вещи, о которых мы, возможно, даже не догадываемся. Попросите неконтролируемую нейронную сеть найти тенденции в наборе данных, и она может обнаружить закономерности, о существовании которых мы даже не подозревали.
Что такое трансформер?
Трансформеры — это особый, универсальный вид ИИ, способный к обучению без присмотра. Они могут интегрировать множество различных потоков данных, каждый из которых имеет свои изменяющиеся параметры. Благодаря этому они превосходно справляются с тензорами. Тензоры, в свою очередь, отлично подходят для организации всех этих данных. Благодаря объединению возможностей тензоров и преобразователей мы можем обрабатывать более сложные наборы данных.
Масштабирование видео и сглаживание движения — отличные приложения для ИИ-трансформеров. Аналогичным образом, тензоры, описывающие изменения, имеют решающее значение для обнаружения дипфейков или подделок. Поскольку сейчас инструменты глубокой подделки активно распространяются, в интернете разворачивается настоящая цифровая гонка вооружений.
Известно, что видеосигнал имеет высокую размерность или «битовую глубину». Он состоит из серии изображений, которые сами состоят из ряда координат и значений цвета. Математически и в компьютерном коде мы представляем эти величины в виде матриц или n-мерных массивов. К счастью, тензоры отлично подходят для обработки матриц и массивов. Например, DaVinci Resolve использует тензорную обработку в своей утилите распознавания лиц Neural Engine с аппаратным ускорением (Nvidia RTX). Передав эти тензоры трансформеру, его способность к обучению без присмотра отлично подходит к определению кривых движения на экране и в реальной жизни.
Тензор, трансформер, исполнительный механизм, шпион
Именно эта способность отслеживать несколько кривых относительно друг друга является причиной того, что комбинация тензор-трансформер настолько хорошо подошла для обработки естественного языка. И этот подход может быть обобщён. Конволюционные трансформеры, то есть гибриды конволюционной нейронной сети и трансформатора - отлично справляются с распознаванием изображений практически в реальном времени. В настоящее время эта технология используется для таких задач, как поиск и спасение людей с помощью роботов или вспомогательное распознавание изображений и текстов, а также для гораздо более спорной практики распознавания лиц, как в Гонконге.
Способность обрабатывать меняющиеся массивы данных - это отличный инструмент для потребительских и вспомогательных технологий, но она также важна для таких вещей, как картирование генома и улучшение дизайна лекарств. И этот список можно долго продолжать. Трансформеры также могут обрабатывать различные виды измерений, помимо пространственных, что полезно для управления массивом устройств или встроенных датчиков, таких как отслеживание погоды, маршрутизация трафика или системы промышленного управления. Именно это делает ИИ столь полезным для обработки огромного количества данных. ИИ может находить закономерности в данных, а затем оперативно реагировать на них.
Автономный искусственный интеллект.
На данный момент почти у каждого есть мобильный телефон с постоянным доступом к интернету. Такое распространение устройств привело к появлению специальной глобальной сети под названием "Интернет вещей" (IoT). А в ближайшем будущем появятся специальные мобильные чипы, которые будут поддерживать функции искусственного интеллекта, которые позволят отказаться от серверных услуг для использования ИИ.
В связи с этим искусственный интеллект сейчас принимает две основные формы: ИИ на устройствах и ИИ для устройств. Разница заключается в том, где происходит обработка. «ИИ на периферии» относится к конечным узлам сети (все — от потребительских устройств до автомобилей и промышленных систем управления), которые используют ИИ для локальной обработки данных. «ИИ для периферии» обеспечивает периферийную аналитику, перекладывая часть вычислительных ресурсов в облако.
На практике основными различиями между ними являются задержка и мощность. Локальная обработка всегда будет быстрее, чем конвейер данных, зависящий от времени пинга. Компромисс — это вычислительная мощность, доступная на стороне сервера.
Встроенные системы, потребительские устройства, промышленные системы управления и другие конечные узлы "Интернета вещей" — все они образуют колоссальный объем информации, требующей обработки. Кто-то звонит домой, кому-то приходится обрабатывать данные практически в режиме реального времени, а кому-то приходится проверять и исправлять свою работу на лету. Работая в дикой природе, эти физические системы действуют точно так же, как узлы нейронной сети. Их коллективная производительность настолько сложна, что в некотором смысле "Интернет вещей" стал AIoT — искусственным интеллектом вещей.
Пословица "Один в поле не воин" как нельзя лучше подходит к Интернету вещей.
По мере того, как устройства дешевеют, даже крошечные кусочки кремния, на которых работают недорогие встроенные системы, обладают удивительной вычислительной мощностью. Но наличие процессора в устройстве не обязательно делает его умнее. Теперь везде есть Wi-Fi или Bluetooth. Некоторые из них действительно крутые. Некоторые из них сделаны грубо говоря "и так сойдет". Если я забуду оставить дверцу открытой в стиральной машине с фронтальной загрузкой, я могу приказать ей запустить цикл очистки со своего телефона. Но "Интернет вещей" уже является хорошо известным кошмаром безопасности. Существуют паразитические глобальные ботнеты, обитающие в потребительских маршрутизаторах. Аппаратные сбои могут иметь каскадный характер, как, например, Великое отключение электроэнергии на северо-востоке США летом 2003 года или когда Техас замерз в 2021 году. Мы также живем в такое время, когда ошибочное обновление прошивки может привести к поломке вашего устройства.
Существует распространённая схема развития технологических инноваций. Когда какой-нибудь стартап из Кремниевой долины изобретает виджет, он проходит путь от идеи до ажиотажа, затем до «виджетов как услуги» и разочарования, прежде чем, наконец, выясняет, для чего нужен этот виджет.
Именно поэтому пользователи часто называют Интернет вещей (IoT) такими ироничными названиями, как "Интернет дерьмовых вещей" и "Интернет укусов" (в котором устройства обмениваются данными по протоколу TCBee-IP). Но "Искусственный интеллект вещей" - это не что-то, что можно просто продавать. Это нечто большее, чем просто сумма его составных частей. Его можно представить как совокупность из возникающих вследствие взаимодействия множества элементов свойств. Чтобы избежать распада на множество слабосвязанных подсетей, для обеспечения целостности и функционирования в режиме реального времени, эти свойства должны тщательно контролироваться.
Искусственный интеллект простыми словами.
Короче говоря, искусственный интеллект часто аналогичен нейронной сети, способной к машинному обучению. Оба они представляют собой программное обеспечение, которое может работать на любом доступном процессоре или графическом процессоре и является достаточно мощным. Нейронные сети часто способны выполнять машинное обучение посредством обратного распространения ошибки.
Существует также своего рода гибридная аппаратно-программная нейронная сеть, которая придаёт новый смысл понятию «машинное обучение». Он создан с использованием тензоров, ASIC и нейроморфной инженерии Intel. Более того, появление коллективного разума "Интернета вещей" создало спрос на искусственный интеллект как на устройствах, так и для устройств. В любом случае, нам уже не остановить развитие искусственного интеллекта, который уже проник почти во все области жизнедеятельности человека.
Лента материалов
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.
Комментарии Правила