Искусственный интеллект
Часть серии о |
Искусственный интеллект |
---|
Искусственный интеллект ( ИИ ) в самом широком смысле — это интеллект, демонстрируемый машинами , особенно компьютерными системами . Это область исследований в области информатики , которая разрабатывает и изучает методы и программное обеспечение , которые позволяют машинам воспринимать окружающую среду и использовать обучение и интеллект для принятия мер, которые максимизируют их шансы на достижение определенных целей. [1] Такие машины можно назвать ИИ.
Некоторые известные приложения ИИ включают передовые поисковые системы в Интернете (например, Google Search ); системы рекомендаций (используются YouTube , Amazon и Netflix ); взаимодействие посредством человеческой речи (например, Google Assistant , Siri и Alexa ); автономные транспортные средства (например, Waymo ); генеративные и творческие инструменты (например, ChatGPT , Apple Intelligence и AI art ); и сверхчеловеческая игра и анализ в стратегических играх (например, шахматах и го ). [2] Однако многие приложения ИИ не воспринимаются как ИИ: «Множество передовых ИИ просочилось в общие приложения, часто не называемые ИИ, потому что как только что-то становится достаточно полезным и достаточно распространенным, его больше не называют ИИ ». [3] [4]
Алан Тьюринг был первым человеком, проведшим серьезные исследования в области, которую он назвал машинным интеллектом. [5] Искусственный интеллект был основан как академическая дисциплина в 1956 году. [6] теми, кого сейчас считают отцами-основателями ИИ, Джоном Маккарти , Марвином Минкси , Натаниэлем Рочестером и Клодом Шенноном . [7] [8] Эта отрасль прошла через несколько циклов оптимизма. [9] [10] за которыми следовали периоды разочарования и потери финансирования, известные как зима AI . [11] [12] Финансирование и интерес значительно возросли после 2012 года, когда глубокое обучение превзошло все предыдущие методы искусственного интеллекта. [13] а после 2017 года с архитектурой-трансформером . [14] Это привело к буму искусственного интеллекта в начале 2020-х годов, когда компании, университеты и лаборатории, преимущественно расположенные в Соединенных Штатах, стали пионерами значительных достижений в области искусственного интеллекта . [15]
Растущее использование искусственного интеллекта в 21 веке влияет на социальный и экономический сдвиг в сторону большей автоматизации , принятия решений на основе данных и интеграции систем искусственного интеллекта в различные экономические сектора и сферы жизни, влияя на рынки труда , здравоохранение , государственное управление. , промышленность , образование , пропаганда и дезинформация . Это поднимает вопросы о долгосрочных последствиях , этических последствиях и рисках ИИ , что побуждает к дискуссиям о регуляторной политике, обеспечивающей безопасность и преимущества технологии .
Различные области исследований ИИ сосредоточены вокруг конкретных целей и использования определенных инструментов. Традиционные цели исследований ИИ включают рассуждение , представление знаний , планирование , обучение , обработку естественного языка , восприятие и поддержку робототехники . [а] Общий интеллект — способность выполнять любую задачу, которую может выполнить человек, как минимум на равном уровне — входит в число долгосрочных целей этой области. [16]
Для достижения этих целей исследователи ИИ адаптировали и интегрировали широкий спектр методов, включая поисковую и математическую оптимизацию , формальную логику , искусственные нейронные сети и методы, основанные на статистике , исследовании операций и экономике . [б] ИИ также опирается на психологию , лингвистику , философию , нейробиологию и другие области. [17]
Цели
Общая проблема моделирования (или создания) интеллекта разбита на подзадачи. Они состоят из определенных черт или способностей, которые исследователи ожидают от интеллектуальной системы. Описанные ниже черты получили наибольшее внимание и охватывают сферу исследований ИИ. [а]
Рассуждение и решение проблем
Ранние исследователи разработали алгоритмы, имитирующие пошаговые рассуждения, которые люди используют, когда решают головоломки или делают логические выводы . [18] К концу 1980-х и 1990-м годам были разработаны методы работы с неопределенной или неполной информацией с использованием концепций теории вероятности и экономики . [19]
Многих из этих алгоритмов недостаточно для решения больших задач рассуждения, поскольку они испытывают «комбинаторный взрыв»: по мере роста задач они становятся экспоненциально медленнее. [20] Даже люди редко используют пошаговые выводы, которые могли смоделировать ранние исследования ИИ. Они решают большинство своих проблем, используя быстрые и интуитивные суждения. [21] Точные и эффективные рассуждения — нерешенная проблема.
Представление знаний
Представление знаний и инженерия знаний [22] позволить программам искусственного интеллекта разумно отвечать на вопросы и делать выводы о реальных фактах. Формальные представления знаний используются при индексировании и поиске на основе контента. [23] интерпретация сцены, [24] поддержка принятия клинических решений, [25] обнаружение знаний (извлечение «интересных» и практических выводов из больших баз данных ), [26] и другие области. [27]
База знаний — это совокупность знаний, представленная в форме, которую может использовать программа. Онтология — это набор объектов, отношений, концепций и свойств, используемых в определенной области знаний. [28] Базы знаний должны представлять такие вещи, как объекты, свойства, категории и отношения между объектами; [29] ситуации, события, состояния и время; [30] причины и следствия; [31] знание о знании (то, что мы знаем о том, что знают другие люди); [32] рассуждения по умолчанию (вещи, которые люди считают истинными, пока им не скажут иначе, и останутся истинными, даже когда другие факты меняются); [33] и многие другие аспекты и области знаний.
Среди наиболее сложных проблем представления знаний — широта знаний здравого смысла (набор элементарных фактов, известных среднестатистическому человеку, огромен); [34] и субсимволическая форма большинства здравомыслящих знаний (многое из того, что знают люди, не представлено в виде «фактов» или «утверждений», которые они могли бы выразить устно). [21] Существует также сложность приобретения знаний , проблема получения знаний для приложений ИИ. [с]
Планирование и принятие решений
«Агент» — это все, что воспринимает и совершает действия в мире. имеет Рациональный агент цели или предпочтения и предпринимает действия для их достижения. [д] [37] При автоматизированном планировании у агента есть конкретная цель. [38] При автоматическом принятии решений у агента есть предпочтения: есть некоторые ситуации, в которых он предпочел бы оказаться, а некоторых ситуаций он пытается избежать. Агент, принимающий решения, присваивает каждой ситуации число (называемое « полезностью »), которое измеряет, насколько агент предпочитает ее. Для каждого возможного действия он может рассчитать « ожидаемую полезность »: полезность всех возможных результатов действия, взвешенную по вероятности того, что результат произойдет. Затем он может выбрать действие с максимальной ожидаемой полезностью. [39]
При классическом планировании агент точно знает, каков будет эффект любого действия. [40] Однако в большинстве задач реального мира агент может не быть уверен в ситуации, в которой он находится (она «неизвестна» или «ненаблюдаема»), и он может не знать наверняка, что произойдет после каждого возможного действия (это не так). «детерминированный»). Он должен выбрать действие, сделав вероятностное предположение, а затем повторно оценить ситуацию, чтобы увидеть, сработало ли действие. [41]
В некоторых задачах предпочтения агента могут быть неопределенными, особенно если в решении участвуют другие агенты или люди. Их можно изучить (например, с помощью обратного обучения с подкреплением ), или агент может искать информацию для улучшения своих предпочтений. [42] Теорию ценности информации можно использовать для взвешивания ценности исследовательских или экспериментальных действий. [43] Пространство возможных будущих действий и ситуаций обычно непреодолимо велико, поэтому агенты должны предпринимать действия и оценивать ситуации, не зная, каким будет результат.
Марковский процесс принятия решений имеет модель перехода , которая описывает вероятность того, что конкретное действие изменит состояние определенным образом, и функцию вознаграждения , которая определяет полезность каждого состояния и стоимость каждого действия. Политика . связывает решение с каждым возможным состоянием Политика может быть рассчитана (например, путем итерации ), быть эвристической или ее можно изучить. [44]
Теория игр описывает рациональное поведение нескольких взаимодействующих агентов и используется в программах ИИ, которые принимают решения с участием других агентов. [45]
Обучение
Машинное обучение — это исследование программ, которые могут автоматически улучшить свою производительность при выполнении определенной задачи. [46] Он был частью ИИ с самого начала. [и]
Существует несколько видов машинного обучения. Обучение без учителя анализирует поток данных, находит закономерности и делает прогнозы без какого-либо другого руководства. [49] Обучение с учителем требует, чтобы человек сначала помечал входные данные, и оно бывает двух основных разновидностей: классификация (когда программа должна научиться предсказывать, к какой категории принадлежат входные данные) и регрессия (когда программа должна вывести числовую функцию на основе числового ввода). ). [50]
При обучении с подкреплением агент вознаграждается за хорошие ответы и наказывается за плохие. Агент учится выбирать ответы, которые классифицируются как «хорошие». [51] Трансферное обучение – это когда знания, полученные при решении одной проблемы, применяются к новой проблеме. [52] Глубокое обучение — это тип машинного обучения, при котором входные данные передаются через биологически созданные искусственные нейронные сети для всех этих типов обучения. [53]
Теория компьютерного обучения может оценивать учащихся по сложности вычислений , по сложности выборки (сколько данных требуется) или по другим понятиям оптимизации . [54]
Обработка естественного языка
Обработка естественного языка (НЛП) [55] позволяет программам читать, писать и общаться на человеческих языках, таких как английский . Конкретные проблемы включают распознавание речи , синтез речи , машинный перевод , извлечение информации , поиск информации и ответы на вопросы . [56]
Ранние работы, основанные на Ноама Хомского , порождающей грамматике и семантических сетях имели трудности с устранением смысловой неоднозначности слов. [ф] если только они не ограничены небольшими областями, называемыми « микромирами » (из-за проблемы знания здравого смысла). [34] ). Маргарет Мастерман считала, что именно значение, а не грамматика, является ключом к пониманию языков и что тезаурусы основой вычислительной структуры языка должны быть , а не словари.
Современные методы глубокого обучения для НЛП включают встраивание слов (представление слов, обычно в виде векторов, кодирующих их значение), [57] трансформеры (архитектура глубокого обучения с использованием механизма внимания ), [58] и другие. [59] В 2019 году генеративные предварительно обученные языковые модели-трансформеры (или «GPT») начали генерировать связный текст. [60] [61] и к 2023 году эти модели смогут получать баллы на уровне человека на экзамене на адвоката , SAT тесте , тесте GRE и во многих других реальных приложениях. [62]
Восприятие
Машинное восприятие — это способность использовать данные от датчиков (таких как камеры, микрофоны, беспроводные сигналы, активный лидар , гидролокатор, радар и тактильные датчики ) для определения аспектов мира. Компьютерное зрение — это способность анализировать визуальную информацию. [63]
Область включает в себя распознавание речи , [64] классификация изображений , [65] распознавание лиц , распознавание объектов , [66] отслеживание объектов , [67] и роботизированное восприятие . [68]
Социальный интеллект
Аффективные вычисления — это междисциплинарный зонтик, включающий системы, которые распознают, интерпретируют, обрабатывают или моделируют человеческие чувства, эмоции и настроение . [70] Например, некоторые виртуальные помощники запрограммированы разговаривать разговорно или даже шутливо подшучивать; это делает их более чувствительными к эмоциональной динамике человеческого взаимодействия или иным образом облегчает взаимодействие человека с компьютером .
Однако это дает наивным пользователям нереальное представление об интеллекте существующих компьютерных агентов. [71] Умеренные успехи, связанные с аффективными вычислениями, включают текстовый анализ настроений и, в последнее время, мультимодальный анализ настроений , в котором ИИ классифицирует аффекты, отображаемые субъектом, записанным на видео. [72]
Общий интеллект
Машина с общим искусственным интеллектом должна быть способна решать широкий спектр задач с широтой и универсальностью, аналогичной человеческому интеллекту. [16]
Техники
Исследования ИИ используют широкий спектр методов для достижения вышеуказанных целей. [б]
Поиск и оптимизация
ИИ может решить многие проблемы, разумно перебирая множество возможных решений. [73] В ИИ используются два совершенно разных типа поиска: поиск в пространстве состояний и локальный поиск .
Государственный космический поиск
Поиск в пространстве состояний просматривает дерево возможных состояний, чтобы попытаться найти целевое состояние. [74] Например, алгоритмы планирования просматривают деревья целей и подцелей, пытаясь найти путь к целевой цели. Этот процесс называется анализом средств и результатов . [75]
Простой исчерпывающий поиск [76] редко бывают достаточными для большинства реальных задач: пространство поиска (количество мест для поиска) быстро вырастает до астрономических цифр . В результате поиск выполняется слишком медленно или никогда не завершается. [20] « Эвристика » или «эмпирические правила» могут помочь расставить приоритеты в выборе, который с большей вероятностью приведет к достижению цели. [77]
Состязательный поиск используется для игровых программ, таких как шахматы или го. Он просматривает дерево возможных ходов и контрходов в поисках выигрышной позиции. [78]
Локальный поиск
Локальный поиск использует математическую оптимизацию для поиска решения проблемы. Он начинается с некоторой формы предположения и постепенно совершенствует его. [79]
Градиентный спуск — это тип локального поиска, который оптимизирует набор числовых параметров путем постепенной их корректировки для минимизации функции потерь . Варианты градиентного спуска обычно используются для обучения нейронных сетей. [80]
Другой тип локального поиска — эволюционные вычисления , целью которых является итеративное улучшение набора возможных решений путем «мутации» и «рекомбинации» их, отбирая только наиболее приспособленных для выживания в каждом поколении. [81]
Процессы распределенного поиска могут координироваться с помощью алгоритмов роевого интеллекта . Двумя популярными роевыми алгоритмами, используемыми в поиске, являются оптимизация роя частиц (вдохновленная стайкой птиц ) и оптимизация колонии муравьев (вдохновленная муравьиными следами ). [82]
Логика
Формальная логика используется для рассуждений и представления знаний . [83] Формальная логика существует в двух основных формах: логика высказываний (которая оперирует утверждениями, которые являются истинными или ложными, и использует логические связки, такие как «и», «или», «не» и «подразумевается»). [84] и логика предикатов (которая также работает с объектами, предикатами и отношениями и использует кванторы, такие как « Каждый X есть Y » и «Есть некоторые X , которые являются Y »). [85]
Дедуктивное рассуждение в логике — это процесс доказательства нового утверждения ( вывода ) на основе других утверждений, которые даны и считаются истинными ( посылок ). [86] Доказательства могут быть структурированы как деревья доказательств , в которых узлы помечены предложениями, а дочерние узлы соединены с родительскими узлами правилами вывода .
Учитывая проблему и набор предпосылок, решение проблемы сводится к поиску дерева доказательств, корневой узел которого помечен решением проблемы, а листовые узлы помечены посылками или аксиомами . В случае предложений Хорна поиск решения проблемы может осуществляться путем рассуждений вперед от посылок или назад от проблемы. [87] В более общем случае клаузальной формы первого порядка логики разрешение — это единственное, свободное от аксиом правило вывода, в котором проблема решается путем доказательства противоречия из посылок, которые включают отрицание решаемой проблемы. [88]
Вывод как в логике предложения Хорна, так и в логике первого порядка неразрешим и, следовательно, неразрешим . Однако обратные рассуждения с предложениями Хорна, лежащие в основе вычислений в логического программирования языке Пролог , являются полными по Тьюрингу . Более того, его эффективность не уступает вычислениям на других символьных языках программирования. [89]
Нечеткая логика присваивает «степень истинности» от 0 до 1. Таким образом, она может обрабатывать расплывчатые и частично истинные утверждения. [90]
Немонотонная логика , включая логическое программирование с отрицанием как неудачей , предназначена для обработки рассуждений по умолчанию . [33] Для описания многих сложных областей были разработаны другие специализированные версии логики.
Вероятностные методы для неопределенных рассуждений
Многие проблемы ИИ (в том числе рассуждения, планирование, обучение, восприятие и робототехника) требуют от агента работы с неполной или неопределенной информацией. Исследователи искусственного интеллекта разработали ряд инструментов для решения этих проблем, используя методы теории вероятностей и экономики. [91] Были разработаны точные математические инструменты, которые анализируют, как агент может делать выбор и планировать, используя теорию принятия решений , анализ решений , [92] и теория ценности информации . [93] Эти инструменты включают в себя такие модели, как процессы принятия решений Маркова , [94] динамические сети принятия решений , [95] Теория игр и проектирование механизмов . [96]
Байесовские сети [97] являются инструментом, который можно использовать для рассуждений (с использованием алгоритма байесовского вывода ), [г] [99] обучение (с использованием алгоритма ожидания-максимизации ), [час] [101] планирование (с использованием сетей принятия решений ) [102] и восприятие (с использованием динамических байесовских сетей ). [95]
Вероятностные алгоритмы также можно использовать для фильтрации, прогнозирования, сглаживания и поиска объяснений потоков данных, тем самым помогая системам восприятия анализировать процессы, происходящие с течением времени (например, скрытые модели Маркова или фильтры Калмана ). [95]
Классификаторы и статистические методы обучения
Простейшие ИИ-приложения можно разделить на два типа: классификаторы (например, «если блестит, то ромб»), с одной стороны, и контроллеры (например, «если бриллиант, то поднимите»), с другой стороны. Классификаторы [103] — это функции, которые используют сопоставление с образцом для определения наиболее близкого соответствия. Их можно доработать на основе выбранных примеров с помощью обучения с учителем . Каждый шаблон (также называемый « наблюдением ») помечен определенным предопределенным классом. Все наблюдения, объединенные с их метками классов, известны как набор данных . Когда получено новое наблюдение, оно классифицируется на основе предыдущего опыта. [50]
Существует множество видов классификаторов. Дерево решений — это самый простой и наиболее широко используемый алгоритм символьного машинного обучения. [104] Алгоритм K-ближайшего соседа был наиболее широко используемым аналоговым ИИ до середины 1990-х годов, а методы ядра , такие как машина опорных векторов (SVM), вытеснили k-ближайшего соседа в 1990-х годах. [105] Сообщается, что наивный классификатор Байеса является «наиболее широко используемым методом обучения». [106] в Google, отчасти благодаря его масштабируемости. [107] Нейронные сети также используются в качестве классификаторов. [108]
Искусственные нейронные сети
Искусственная нейронная сеть основана на наборе узлов, также известных как искусственные нейроны , которые в общих чертах моделируют нейроны биологического мозга. Он обучен распознавать закономерности; после обучения он сможет распознавать эти закономерности в свежих данных. Есть вход, как минимум один скрытый слой узлов и выход. Каждый узел применяет функцию, и как только вес пересекает указанный порог, данные передаются на следующий уровень. Сеть обычно называется глубокой нейронной сетью, если она имеет как минимум два скрытых слоя. [108]
Алгоритмы обучения нейронных сетей используют локальный поиск для выбора весов, которые дадут правильный результат для каждого входного сигнала во время обучения. Наиболее распространенным методом обучения является алгоритм обратного распространения ошибки . [109] Нейронные сети учатся моделировать сложные взаимосвязи между входными и выходными данными и находить закономерности в данных. Теоретически нейронная сеть может изучить любую функцию. [110]
В нейронных сетях прямого распространения сигнал проходит только в одном направлении. [111] Рекуррентные нейронные сети передают выходной сигнал обратно на вход, что позволяет кратковременно запоминать предыдущие входные события. Долговременная краткосрочная память является наиболее успешной сетевой архитектурой для рекуррентных сетей. [112] Персептроны [113] использовать только один слой нейронов, глубокое обучение [114] использует несколько слоев. Сверточные нейронные сети усиливают связь между нейронами, находящимися «близко» друг к другу — это особенно важно при обработке изображений , где локальный набор нейронов должен идентифицировать «край», прежде чем сеть сможет идентифицировать объект. [115]
Глубокое обучение
Глубокое обучение [114] использует несколько слоев нейронов между входами и выходами сети. Несколько слоев могут постепенно извлекать функции более высокого уровня из необработанных входных данных. Например, при обработке изображений нижние уровни могут идентифицировать края, а более высокие уровни могут идентифицировать понятия, относящиеся к человеку, такие как цифры, буквы или лица. [116]
Глубокое обучение значительно улучшило производительность программ во многих важных областях искусственного интеллекта, включая компьютерное зрение , распознавание речи , обработку естественного языка , классификацию изображений , [117] и другие. Причина, по которой глубокое обучение так хорошо работает во многих приложениях, по состоянию на 2023 год неизвестна. [118] Внезапный успех глубокого обучения в 2012–2015 годах произошел не из-за какого-то нового открытия или теоретического прорыва (глубокие нейронные сети и обратное распространение ошибки были описаны многими людьми еще в 1950-х годах). [я] но из-за двух факторов: невероятного увеличения мощности компьютера (включая стократное увеличение скорости за счет перехода на графические процессоры ) и доступности огромных объемов обучающих данных, особенно гигантских курируемых наборов данных, используемых для эталонного тестирования, таких как ImageNet . [Дж]
GPT
Генеративные предварительно обученные преобразователи (GPT) — это большие языковые модели , основанные на семантических отношениях между словами в предложениях ( обработка естественного языка ). Текстовые модели GPT предварительно обучаются на большом массиве текста , который может быть взят из Интернета. Предварительное обучение заключается в предсказании следующего токена (токеном обычно является слово, подслово или знак препинания). В ходе этого предварительного обучения модели GPT накапливают знания о мире, а затем могут генерировать текст, похожий на человеческий, многократно предсказывая следующий токен. Как правило, последующий этап обучения делает модель более правдивой, полезной и безвредной, обычно с помощью метода, называемого обучением с подкреплением на основе обратной связи с человеком (RLHF). Текущие модели GPT по-прежнему склонны генерировать ложные сведения, называемые « галлюцинациями », хотя это можно уменьшить с помощью RLHF и качественных данных. Они используются в чат-ботах , которые позволяют задать вопрос или запросить задачу простым текстом. [127] [128]
Текущие модели и сервисы включают: Gemini (ранее Bard), ChatGPT , Grok , Claude , Copilot и LLaMA . [129] Мультимодальные модели GPT могут обрабатывать различные типы данных ( модальности ), такие как изображения, видео, звук и текст. [130]
Специализированное оборудование и программное обеспечение
В конце 2010-х годов графические процессоры (GPU), которые все чаще проектировались с усовершенствованиями, специфичными для искусственного интеллекта, и использовались со специализированным программным обеспечением TensorFlow, заменили ранее использовавшиеся центральные процессоры (ЦП) в качестве доминирующего средства для крупномасштабных (коммерческих и академических) машин. обучения . обучение моделей [131] Специализированные языки программирования , такие как Пролог, использовались в ранних исследованиях ИИ. [132] но языки программирования общего назначения, такие как Python, стали преобладать. [133]
Приложения
Технологии искусственного интеллекта и машинного обучения используются в большинстве важнейших приложений 2020-х годов, включая: поисковые системы (такие как Google Search ), таргетинг онлайн-рекламы , системы рекомендаций (предлагаемые Netflix , YouTube или Amazon ), привлечение интернет-трафика , таргетированную рекламу. ( AdSense , Facebook ), виртуальные помощники (такие как Siri или Alexa ), автономные транспортные средства (включая дроны , ADAS и беспилотные автомобили ), автоматический языковой перевод ( Microsoft Translator , Google Translate ), распознавание лиц ( Apple ID Face или Microsoft от DeepFace и Google от FaceNet ) и маркировка изображений (используется Facebook от Apple , iPhoto и TikTok ). Развертывание ИИ может контролироваться директором по автоматизации (CAO).
Здоровье и медицина
Применение ИИ в медицине и медицинских исследованиях потенциально может улучшить уход за пациентами и качество их жизни. [134] Через призму клятвы Гиппократа медицинские работники этически обязаны использовать ИИ, если приложения могут более точно диагностировать и лечить пациентов.
Для медицинских исследований ИИ является важным инструментом обработки и интеграции больших данных . Это особенно важно для развития органоидной и тканевой инженерии визуализация используется , где микроскопическая в качестве ключевого метода производства. [135] Было высказано предположение, что ИИ может преодолеть несоответствия в финансировании, выделяемом на различные области исследований. [135] Новые инструменты искусственного интеллекта могут углубить понимание биомедицинских путей. Например, AlphaFold 2 (2021) продемонстрировал способность аппроксимировать трехмерную структуру белка за часы, а не за месяцы . [136] В 2023 году сообщалось, что открытие лекарств под руководством ИИ помогло найти класс антибиотиков, способных убивать два разных типа устойчивых к лекарствам бактерий. [137] В 2024 году исследователи использовали машинное обучение, чтобы ускорить поиск от болезни Паркинсона лекарств . Их целью было идентифицировать соединения, которые блокируют слипание или агрегацию альфа-синуклеина (белка, который характеризует болезнь Паркинсона). Им удалось ускорить процесс первичной проверки в десять раз и снизить стоимость в тысячу раз. [138] [139]
Игры
Игровые программы используются с 1950-х годов для демонстрации и тестирования самых передовых методов искусственного интеллекта. [140] Deep Blue стала первой компьютерной игровой системой, победившей действующего чемпиона мира по шахматам Гарри Каспарова 11 мая 1997 года. [141] В 2011 году в опасности! викторина-шоу показательный матч, , IBM вопросно-ответная система Уотсон , победилдва величайших Jeopardy! чемпионы Брэд Раттер и Кен Дженнингс со значительным отрывом. [142] В марте 2016 года AlphaGo выиграла 4 из 5 игр в го в матче с чемпионом по го Ли Седолем , став первой компьютерной системой игры в го, обыгравшей профессионального игрока в го без гандикапов . Затем в 2017 году он победил Кэ Цзе , который был лучшим игроком в го в мире. [143] Другие программы обрабатывают игры с несовершенной информацией , например в покер программа для игры Pluribus . [144] DeepMind разработала все более общие модели обучения с подкреплением , такие как MuZero , которые можно было обучить играть в шахматы, го или Atari . игры [145] В 2019 году AlphaStar из DeepMind достигла уровня гроссмейстера в StarCraft II , особенно сложной стратегической игре в реальном времени, которая предполагает неполное знание того, что происходит на карте. [146] В 2021 году ИИ-агент принял участие в соревновании PlayStation Gran Turismo , победив четырех лучших в мире водителей Gran Turismo, используя глубокое обучение с подкреплением. [147]
Финансы
Финансы — один из наиболее быстрорастущих секторов, где используются прикладные инструменты искусственного интеллекта: от розничного онлайн-банкинга до инвестиционных консультаций и страхования, где уже несколько лет используются автоматизированные «роботы-консультанты». [148]
Эксперты World Pensions , такие как Николас Фирзли, настаивают, что, возможно, еще слишком рано видеть появление высокоинновационных финансовых продуктов и услуг на основе искусственного интеллекта: «развертывание инструментов искусственного интеллекта просто приведет к дальнейшей автоматизации процессов: уничтожению десятков тысяч рабочих мест в банковском деле, финансовом планировании и рекомендации по пенсионному обеспечению в процессе, но я не уверен, что это вызовет новую волну [например, сложных] пенсионных инноваций». [149]
Военный
Различные страны внедряют военные приложения ИИ. [150] Основные приложения расширяют возможности управления и контроля , связи, датчиков, интеграции и совместимости. [151] Исследования направлены на сбор и анализ разведывательной информации, логистику, кибероперации, информационные операции, а также полуавтономные и автономные транспортные средства . [150] Технологии искусственного интеллекта обеспечивают координацию датчиков и исполнительных устройств, обнаружение и идентификацию угроз, маркировку позиций противника, захват целей , координацию и устранение конфликтов в распределенных совместных огнях между объединенными в сеть боевыми машинами с участием пилотируемых и беспилотных групп. [151] ИИ был задействован в военных операциях в Ираке и Сирии. [150]
В ноябре 2023 года вице-президент США Камала Харрис обнародовала подписанную 31 страной декларацию, устанавливающую ограничения на использование искусственного интеллекта в военных целях. Обязательства включают в себя проведение юридических проверок для обеспечения соответствия военного ИИ международному праву, а также осторожность и прозрачность при разработке этой технологии. [152]
Генеративный ИИ
В начале 2020-х годов генеративный искусственный интеллект получил широкое распространение. В марте 2023 года 58% взрослых американцев слышали о ChatGPT и 14% пробовали его. [153] Растущая реалистичность и простота использования генераторов текста в изображения на основе искусственного интеллекта, таких как Midjourney , DALL-E и Stable Diffusion, вызвали тенденцию к вирусным фотографиям, созданным с помощью искусственного интеллекта. Широкое внимание привлекли фейковая фотография Папы Франциска в белом пуховике, вымышленный арест Дональда Трампа и мистификация нападения на Пентагон , а также использование в профессиональном творчестве. [154] [155]
Другие отраслевые задачи
Существуют также тысячи успешных приложений ИИ, используемых для решения конкретных проблем в конкретных отраслях или учреждениях. В опросе 2017 года каждая пятая компания сообщила, что включила искусственный интеллект в некоторые предложения или процессы. [156] Несколько примеров — хранение энергии , медицинская диагностика, военная логистика, приложения, предсказывающие результат судебных решений, внешняя политика или управление цепочками поставок.
Приложения искусственного интеллекта для эвакуации и борьбы со стихийными бедствиями растут. ИИ использовался для расследования того, эвакуировались ли люди в крупномасштабных и мелкомасштабных эвакуациях и каким образом, с использованием исторических данных GPS, видео или социальных сетей. Кроме того, ИИ может предоставлять информацию в реальном времени об условиях эвакуации в реальном времени. [157] [158] [159]
В сельском хозяйстве ИИ помог фермерам определить области, которые нуждаются в ирригации, удобрении, обработке пестицидами или повышении урожайности. Агрономы используют ИИ для проведения исследований и разработок. Искусственный интеллект использовался для прогнозирования времени созревания таких культур, как томаты, мониторинга влажности почвы, управления сельскохозяйственными роботами, проведения прогнозной аналитики, классификации эмоций, вызываемых домашним скотом, свиней, автоматизации теплиц, обнаружения болезней и вредителей, а также экономии воды.
Искусственный интеллект используется в астрономии для анализа растущих объемов доступных данных и приложений, в основном для «классификации, регрессии, кластеризации, прогнозирования, генерации, открытия и развития новых научных идей», например, для открытия экзопланет, прогнозирования солнечной активности и различие между сигналами и инструментальными эффектами в гравитационно-волновой астрономии. Его также можно использовать для деятельности в космосе, такой как исследование космоса, включая анализ данных космических миссий, научные решения космических кораблей в реальном времени, предотвращение космического мусора и более автономную работу.
Этика
ИИ имеет потенциальные преимущества и потенциальные риски. ИИ может способствовать развитию науки и находить решения серьезных проблем: Демис Хассабис из Deep Mind надеется «разгадать интеллект, а затем использовать его для решения всего остального». [160] Однако по мере того, как использование ИИ стало широко распространенным, было выявлено несколько непредвиденных последствий и рисков. [161] Производственные системы иногда не могут учитывать этику и предвзятость в процессах обучения ИИ, особенно когда алгоритмы ИИ по своей сути необъяснимы при глубоком обучении. [162]
Риски и вред
Конфиденциальность и авторские права
Алгоритмы машинного обучения требуют больших объемов данных. Методы, используемые для получения этих данных, вызвали обеспокоенность по поводу конфиденциальности , слежки и авторских прав .
Технологические компании собирают широкий спектр данных от своих пользователей, включая онлайн-активность, данные геолокации, видео и аудио. [163] Например, чтобы создать распознавания речи алгоритмы , Amazon записал миллионы частных разговоров и позволил временным работникам прослушивать и расшифровывать некоторые из них. [164] Мнения об этой широко распространенной слежке варьируются от тех, кто считает ее неизбежным злом, до тех, для кого она явно неэтична и нарушает право на неприкосновенность частной жизни . [165]
Разработчики ИИ утверждают, что это единственный способ предоставлять ценные приложения. и разработали несколько методов, которые пытаются сохранить конфиденциальность при получении данных, таких как агрегирование данных , деидентификация и дифференциальная конфиденциальность . [166] С 2016 года некоторые эксперты по конфиденциальности, такие как Синтия Дворк , начали рассматривать конфиденциальность с точки зрения справедливости . Брайан Кристиан писал, что эксперты перешли «от вопроса «что они знают» к вопросу «что они с этим делают»». [167]
Генеративный ИИ часто обучается на нелицензированных произведениях, защищенных авторским правом, в том числе в таких областях, как изображения или компьютерный код; выходные данные затем используются на основании « добросовестного использования ». Эксперты расходятся во мнениях относительно того, насколько хорошо и при каких обстоятельствах это обоснование будет иметь силу в судах; соответствующие факторы могут включать «цель и характер использования произведения, защищенного авторским правом» и «влияние на потенциальный рынок произведения, защищенного авторским правом». [168] [169] Владельцы веб-сайтов, которые не хотят, чтобы их контент удалялся, могут указать это в файле robots.txt . [170] В 2023 году ведущие авторы (в том числе Джон Гришэм и Джонатан Франзен ) подали в суд на компании, занимающиеся ИИ, за использование их работ для обучения генеративному ИИ. [171] [172] Другой обсуждаемый подход заключается в создании отдельной sui Generis системы защиты творений, созданных ИИ, чтобы обеспечить справедливое присвоение авторства и компенсацию авторам-людям. [173]
Дезинформация
YouTube , Facebook и другие используют системы рекомендаций , чтобы направлять пользователей к большему количеству контента. Целью этих программ искусственного интеллекта было максимальное вовлечение пользователей (то есть единственной целью было заставить людей следить за происходящим). ИИ узнал, что пользователи склонны выбирать дезинформацию , теории заговора и крайне предвзятый контент, и, чтобы удержать их на просмотре, ИИ рекомендовал больше такого контента. Пользователи также склонны смотреть больше контента на одну и ту же тему, поэтому ИИ направлял людей в пузыри фильтров , где они получали несколько версий одной и той же дезинформации. [174] Это убедило многих пользователей в правдивости дезинформации и в конечном итоге подорвало доверие к институтам, СМИ и правительству. [175] Программа ИИ правильно научилась максимизировать свою цель, но результат был вреден для общества. После выборов в США в 2016 году крупные технологические компании предприняли шаги по смягчению проблемы. [ нужна ссылка ] .
В 2022 году генеративный ИИ начал создавать изображения, аудио, видео и текст, неотличимые от реальных фотографий, записей, фильмов или написанного человеком текста. Злоумышленники могут использовать эту технологию для создания огромного количества дезинформации или пропаганды. [176] Пионер искусственного интеллекта Джеффри Хинтон выразил обеспокоенность по поводу того, что искусственный интеллект, помимо других рисков, позволяет «авторитарным лидерам манипулировать своим электоратом» в больших масштабах. [177]
Алгоритмическая предвзятость и справедливость
Приложения машинного обучения будут предвзятыми, если они будут учиться на предвзятых данных. [178] Разработчики могут не знать о существовании предвзятости. [179] Смещение может быть вызвано способом выбора обучающих данных и способом развертывания модели. [180] [178] Если предвзятый алгоритм используется для принятия решений, которые могут серьезно навредить людям (как это может быть в медицине , финансах , найме на работу , жилье или полиции ), тогда этот алгоритм может вызвать дискриминацию . [181] Справедливость в машинном обучении — это изучение того, как предотвратить вред, причиняемый алгоритмической предвзятостью. Это стало серьезной областью академических исследований в области ИИ. Исследователи обнаружили, что не всегда возможно определить «справедливость» так, чтобы это удовлетворило все заинтересованные стороны. [182]
28 июня 2015 года новая функция маркировки изображений в Google Фото ошибочно определила Джеки Алсина и его друга как «горилл», потому что они были черными. Система была обучена на наборе данных, содержащем очень мало изображений чернокожих людей. [183] проблема под названием «несоответствие размера выборки». [184] Google «исправил» эту проблему, запретив системе помечать что-либо как «гориллу». Восемь лет спустя, в 2023 году, Google Photos все еще не смог идентифицировать гориллу, как и аналогичные продукты Apple, Facebook, Microsoft и Amazon. [185]
COMPAS – коммерческая программа, широко используемая судами США для оценки вероятности того, что обвиняемый станет рецидивистом .В 2016 году Джулия Ангвин из ProPublica обнаружила, что КОМПАС демонстрирует расовую предвзятость, несмотря на то, что программе не была указана расовая принадлежность обвиняемых. Хотя частота ошибок как для белых, так и для черных была калибрована равной ровно 61%, ошибки для каждой расы были разными — система постоянно переоценивала вероятность того, что чернокожий человек совершит повторное правонарушение, и недооценивала вероятность того, что белый человек не совершит правонарушение. повторно обидеть. [186] В 2017 году несколько исследователей [к] показало, что COMPAS математически невозможно учесть все возможные меры справедливости, когда базовые показатели повторных правонарушений различаются для белых и черных в данных. [188]
Программа может принимать предвзятые решения, даже если в данных явно не упоминается проблемный признак (например, «раса» или «пол»). Эта функция будет коррелировать с другими функциями (такими как «адрес», «история покупок» или «имя»), и программа будет принимать те же решения на основе этих функций, что и на основе «расы» или «пола». [189] Мориц Хардт сказал, что «самый убедительный факт в этой области исследований заключается в том, что справедливость через слепоту не работает». [190]
Критика COMPAS подчеркнула, что модели машинного обучения созданы для того, чтобы делать «прогнозы», которые действительны только в том случае, если мы предполагаем, что будущее будет напоминать прошлое. Если они обучаются на данных, которые включают результаты расистских решений в прошлом, модели машинного обучения должны предсказывать, что расистские решения будут приняты в будущем. Если приложение затем использует эти прогнозы в качестве рекомендаций , некоторые из этих «рекомендаций», скорее всего, будут расистскими. [191] Таким образом, машинное обучение не очень подходит для принятия решений в тех областях, где есть надежда, что будущее будет лучше прошлого. Он носит скорее описательный, чем предписывающий характер. [л]
Предвзятость и несправедливость могут остаться незамеченными, поскольку разработчики в подавляющем большинстве белые и мужчины: среди инженеров ИИ около 4% — чернокожие, а 20% — женщины. [184]
На своей конференции по справедливости, подотчетности и прозрачности 2022 года (ACM FAccT 2022) Ассоциация вычислительной техники в Сеуле, Южная Корея, представила и опубликовала результаты, которые рекомендуют, чтобы до тех пор, пока системы искусственного интеллекта и робототехники не будут продемонстрированы, что они свободны от ошибок предвзятости, они небезопасны, и следует ограничить использование самообучающихся нейронных сетей, обученных на огромных нерегулируемых источниках ошибочных интернет-данных. [193]
Отсутствие прозрачности
Многие системы искусственного интеллекта настолько сложны, что их разработчики не могут объяснить, как они принимают решения. [194] Особенно с глубокими нейронными сетями , в которых существует большое количество нелинейных связей между входными и выходными данными. Но существуют некоторые популярные методы объяснения. [195]
Невозможно быть уверенным в том, что программа работает правильно, если никто не знает, как именно она работает. Было много случаев, когда программа машинного обучения прошла строгие тесты, но, тем не менее, узнала нечто иное, чем предполагали программисты. Например, было обнаружено, что система, которая может идентифицировать кожные заболевания лучше, чем медицинские работники, на самом деле имеет сильную тенденцию классифицировать изображения с линейкой как «раковые», поскольку изображения злокачественных новообразований обычно включают линейку, показывающую масштаб. [196] Было обнаружено, что другая система машинного обучения, разработанная для эффективного распределения медицинских ресурсов, классифицирует пациентов с астмой как людей с «низким риском» смерти от пневмонии. Наличие астмы на самом деле является серьезным фактором риска, но, поскольку пациенты, страдающие астмой, обычно получают гораздо больше медицинской помощи, согласно данным обучения, их смерть относительно маловероятна. Корреляция между астмой и низким риском смерти от пневмонии была реальной, но вводящей в заблуждение. [197]
Люди, пострадавшие от решения алгоритма, имеют право на объяснение. [198] От врачей, например, ожидается, что они будут четко и полностью объяснять своим коллегам причины любого принимаемого ими решения. Ранние проекты Общего регламента ЕС по защите данных в 2016 году содержали прямое заявление о существовании этого права. [м] Эксперты отрасли отметили, что это нерешенная проблема, решения которой не видно. Регуляторы утверждали, что тем не менее вред реален: если проблема не имеет решения, инструменты не следует использовать. [199]
DARPA учредило программу XAI («Объяснимый искусственный интеллект») в 2014 году, чтобы попытаться решить эти проблемы. [200]
Существует несколько возможных решений проблемы прозрачности. SHAP пытался решить проблемы прозрачности, визуализируя вклад каждой функции в выходные данные. [201] LIME может локально аппроксимировать модель более простой интерпретируемой моделью. [202] Многозадачное обучение обеспечивает большое количество результатов в дополнение к целевой классификации. Эти другие выходные данные могут помочь разработчикам понять, чему научилась сеть. [203] Деконволюция , DeepDream и другие генеративные методы могут позволить разработчикам видеть, чему научились различные уровни глубокой сети, и выдавать выходные данные, которые могут указывать на то, что изучает сеть. [204]
Плохие актеры и вооруженный ИИ
Искусственный интеллект предоставляет ряд инструментов, полезных злоумышленникам , таким как авторитарные правительства , террористы , преступники или государства-изгои .
Смертоносное автономное оружие — это машина, которая обнаруживает, выбирает и поражает человеческие цели без присмотра человека. [н] Широко доступные инструменты искусственного интеллекта могут быть использованы злоумышленниками для разработки недорогого автономного оружия, и, если они будут производиться в больших масштабах, они потенциально станут оружием массового уничтожения . [206] Даже при использовании в обычной войне маловероятно, что они не смогут надежно выбирать цели и потенциально смогут убить невиновного человека . [206] В 2014 году 30 стран (включая Китай) поддержали запрет на автономное оружие в соответствии с ООН Конвенцией о конкретных видах обычного оружия , однако Соединенные Штаты и другие страны с этим не согласились. [207] Сообщалось, что к 2015 году более пятидесяти стран исследовали боевых роботов. [208]
Инструменты ИИ облегчают авторитарным правительствам эффективный контроль над своими гражданами несколькими способами. лиц и Распознавание голоса позволяет осуществлять повсеместное наблюдение . Машинное обучение , оперируя этими данными, может классифицировать потенциальных врагов государства и не давать им скрываться. Системы рекомендаций могут точно нацелены на пропаганду и дезинформацию для достижения максимального эффекта. Дипфейки и генеративный искусственный интеллект помогают создавать дезинформацию. Передовой ИИ может сделать авторитарные централизованные процессы принятия решений более конкурентоспособными, чем либеральные и децентрализованные системы, такие как рынки . Это снижает стоимость и сложность цифровой войны и современного шпионского ПО . [209] Все эти технологии доступны с 2020 года или раньше — системы распознавания лиц с искусственным интеллектом уже используются для массовой слежки в Китае. [210] [211]
Существует много других способов, с помощью которых ИИ может помочь злодеям, некоторые из которых невозможно предусмотреть. Например, искусственный интеллект с машинным обучением способен создавать десятки тысяч токсичных молекул за считанные часы. [212]
Опора на отраслевых гигантов
Обучение систем искусственного интеллекта требует огромных вычислительных мощностей. Обычно только крупные технологические компании имеют финансовые ресурсы для таких инвестиций. Небольшие стартапы, такие как Cohere и OpenAI, в конечном итоге покупают доступ к центрам обработки данных у Google и Microsoft соответственно. [213]
Технологическая безработица
Экономисты часто подчеркивали риски увольнений из ИИ и высказывали предположения о безработице, если не будет адекватной социальной политики для полной занятости. [214]
В прошлом технологии имели тенденцию скорее увеличивать, чем сокращать общую занятость, но экономисты признают, что с ИИ «мы находимся на неизведанной территории». [215] Опрос экономистов показал разногласия по поводу того, приведет ли растущее использование роботов и искусственного интеллекта к существенному увеличению долгосрочной безработицы , но в целом они согласны с тем, что это может принести чистую выгоду, если производительности прирост перераспределить . [216] Оценки риска различаются; например, в 2010-х годах Майкл Осборн и Карл Бенедикт Фрей подсчитали, что 47% рабочих мест в США подвергаются «высокому риску» потенциальной автоматизации, тогда как в отчете ОЭСР только 9% рабочих мест в США классифицируются как «высокие риски». [the] [218] Методологию рассуждений о будущих уровнях занятости подвергали критике за отсутствие доказательной базы и за то, что она подразумевает, что технологии, а не социальная политика, создают безработицу, а не увольнения. [214] В апреле 2023 года сообщалось, что 70% рабочих мест китайских иллюстраторов видеоигр были сокращены из-за генеративного искусственного интеллекта. [219] [220]
В отличие от предыдущих волн автоматизации, многие рабочие места среднего класса могут быть ликвидированы искусственным интеллектом; В 2015 году журнал The Economist заявил, что «беспокойство о том, что ИИ может сделать с рабочими местами белых воротничков то же, что паровая энергия сделала с рабочими во время промышленной революции», «стоит отнестись серьезно». [221] Рабочие места, подвергающиеся крайнему риску, варьируются от помощников юристов до поваров фаст-фуда, в то время как спрос на рабочие места, вероятно, увеличится для профессий, связанных с уходом, от личного здравоохранения до духовенства. [222]
С первых дней развития искусственного интеллекта существовали аргументы, например, выдвинутые Джозефом Вайценбаумом , о том, должны ли на самом деле выполняться ими задачи, которые могут выполняться компьютерами, учитывая разницу между компьютерами и людьми, и между количественными расчетами и качественными, основанными на ценностях суждениями. [223]
Экзистенциальный риск
Утверждалось, что ИИ станет настолько мощным, что человечество может необратимо потерять над ним контроль. Это может, как заявил физик Стивен Хокинг , « означать конец человечества ». [224] Этот сценарий был обычным явлением в научной фантастике, когда компьютер или робот внезапно развивает человеческое «самосознание» (или «чувственность» или «сознание») и становится злонамеренным персонажем. [п] Эти научно-фантастические сценарии вводят в заблуждение по нескольким причинам.
Во-первых, ИИ не требует, чтобы человеческое « сознание » представляло экзистенциальный риск. Современные программы искусственного интеллекта ставят перед собой конкретные цели и используют обучение и интеллект для их достижения. Философ Ник Бостром утверждал, что если дать достаточно мощному ИИ практически любую цель, он может решить уничтожить человечество для ее достижения (он использовал пример менеджера фабрики по производству скрепок ). [226] Стюарт Рассел приводит пример домашнего робота, который пытается найти способ убить своего владельца, чтобы предотвратить его отключение от сети, мотивируя это тем, что «вы не сможете принести кофе, если вы мертвы». [227] Чтобы быть безопасным для человечества, сверхразум должен быть искренне связан с моралью и ценностями человечества, чтобы он был «фундаментально на нашей стороне». [228]
Во-вторых, Юваль Ной Харари утверждает, что ИИ не требует тела робота или физического контроля, чтобы представлять экзистенциальный риск. Существенные части цивилизации не являются физическими. Такие вещи, как идеологии , законы , правительство , деньги и экономика , созданы из языка ; они существуют, потому что есть истории, в которые верят миллиарды людей. Нынешняя распространенность дезинформации предполагает, что ИИ может использовать язык, чтобы убедить людей поверить во что угодно, даже совершить разрушительные действия. [229]
Мнения среди экспертов и инсайдеров отрасли неоднозначны: значительная часть их как обеспокоена, так и не обеспокоена риском, исходящим от возможного сверхразумного ИИ. [230] Такие личности, как Стивен Хокинг , Билл Гейтс и Илон Маск , [231] а также пионеры ИИ, такие как Джеффри Хинтон , Йошуа Бенджио , Демис Хассабис и Сэм Альтман , выразили обеспокоенность по поводу экзистенциального риска, связанного с ИИ.
В 2023 году многие ведущие эксперты в области ИИ выступили с совместным заявлением , что «Снижение риска исчезновения ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война». [232]
Другие исследователи, однако, высказались в пользу менее антиутопической точки зрения. Пионер искусственного интеллекта Юрген Шмидхубер не подписал совместное заявление, подчеркнув, что в 95% всех случаев исследования искусственного интеллекта направлены на то, чтобы сделать «человеческую жизнь дольше, здоровее и проще». [233] Хотя инструменты, которые сейчас используются для улучшения жизни, также могут быть использованы злоумышленниками, «они также могут быть использованы против злоумышленников». [234] [235] Эндрю Нг также заявил, что «было бы ошибкой поддаться шумихе вокруг ИИ, связанной с судным днем, и что регуляторы, которые это сделают, принесут пользу только корыстным интересам». [236] Янн ЛеКун «высмеивает антиутопические сценарии своих сверстников о чрезмерной дезинформации и даже, в конечном итоге, о вымирании человечества». [237] В начале 2010-х годов эксперты утверждали, что риски в будущем слишком далеки, чтобы требовать проведения исследований, или что люди будут представлять ценность с точки зрения сверхразумной машины. [238] Однако после 2016 года изучение текущих и будущих рисков и возможных решений стало серьезным направлением исследований. [239]
Этические машины и согласованность
Дружественный ИИ — это машины, которые с самого начала были разработаны для минимизации рисков и принятия решений, приносящих пользу людям. Элиэзер Юдковски , придумавший этот термин, утверждает, что разработка дружественного ИИ должна быть более высоким приоритетом исследований: это может потребовать больших инвестиций и должно быть завершено до того, как ИИ станет экзистенциальным риском. [240]
У машин, обладающих интеллектом, есть потенциал использовать свой интеллект для принятия этических решений. Область машинной этики предоставляет машинам этические принципы и процедуры для решения этических дилемм. [241] Область машинной этики также называется вычислительной моралью. [241] и была основана на симпозиуме AAAI в 2005 году. [242]
Другие подходы включают Венделла Уоллаха . «искусственные моральные агенты» [243] и Стюарта Дж. Рассела для три принципа разработки доказуемо полезных машин. [244]
Открытый исходный код
Активные организации в сообществе разработчиков искусственного интеллекта с открытым исходным кодом включают Hugging Face , [245] Google , [246] ЭлеутерИИ и Мета . [247] Различные модели ИИ, такие как Llama 2 , Mistral или Stable Diffusion , были сделаны с открытым весом, [248] [249] это означает, что их архитектура и обученные параметры («веса») общедоступны. Модели открытого веса можно свободно настраивать , что позволяет компаниям специализировать их на основе собственных данных и для собственных сценариев использования. [250] Модели открытого веса полезны для исследований и инноваций, но ими также можно злоупотреблять. Поскольку их можно точно настроить, любые встроенные меры безопасности, такие как противодействие вредоносным запросам, можно отключать до тех пор, пока они не станут неэффективными. Некоторые исследователи предупреждают, что будущие модели ИИ могут обладать опасными возможностями (например, потенциально значительно способствовать биотерроризму ), и что после публикации в Интернете их нельзя будет удалить повсюду, если это необходимо. Они рекомендуют предварительные аудиты и анализ затрат и выгод. [251]
Рамки
Этическая допустимость проектов искусственного интеллекта может быть проверена при проектировании, разработке и внедрении системы ИИ. Структура искусственного интеллекта, такая как Care and Act Framework, содержащая значения SUM, разработанная Институтом Алана Тьюринга, тестирует проекты в четырех основных областях: [252] [253]
- Уважайте достоинство отдельных людей
- Общайтесь с другими людьми искренне, открыто и инклюзивно.
- Забота о благополучии каждого
- Защищать социальные ценности, справедливость и общественные интересы
Другие разработки в области этических норм включают, среди прочего, решения, принятые на конференции Асиломар , Монреальскую декларацию об ответственном ИИ и инициативу IEEE по этике автономных систем; [254] однако эти принципы не обходятся без критики, особенно в отношении людей, избранных в эти рамки. [255]
Содействие благополучию людей и сообществ, на которые влияют эти технологии, требует рассмотрения социальных и этических последствий на всех этапах проектирования, разработки и внедрения системы ИИ, а также сотрудничества между должностными лицами, такими как специалисты по обработке данных, менеджеры по продуктам, инженеры по обработке данных, специалисты по предметной области. специалисты и менеджеры по доставке. [256]
Институт безопасности ИИ в Великобритании выпустил набор инструментов для тестирования под названием «Inspect» для оценки безопасности ИИ, доступный по лицензии MIT с открытым исходным кодом, который находится в свободном доступе на GitHub и может быть улучшен с помощью сторонних пакетов. Его можно использовать для оценки моделей ИИ в различных областях, включая базовые знания, способность рассуждать и автономные возможности. [257]
Выражая обеспокоенность по поводу проблем, включая экзистенциальный риск, связанный с общим искусственным интеллектом , [258] в мае 2023 года Джеффри Хинтон объявил о своем уходе из Google, чтобы иметь возможность «свободно говорить о рисках ИИ». [259] Он подчеркнул, что во избежание наихудших результатов разработка руководящих принципов безопасности потребует сотрудничества между теми, кто конкурирует в использовании ИИ. [260]
Регулирование
Регулирование искусственного интеллекта — это разработка политики и законов государственного сектора для продвижения и регулирования искусственного интеллекта (ИИ); следовательно, это связано с более широким регулированием алгоритмов. [261] Нормативно-правовая база в области ИИ является новой проблемой в юрисдикциях по всему миру. [262] По данным AI Index в Стэнфорде , ежегодное количество законов, связанных с ИИ, принятых в 127 странах, принявших участие в исследовании, выросло с одного, принятого в 2016 году, до 37, принятых только в 2022 году. [263] [264] В период с 2016 по 2020 год более 30 стран приняли специальные стратегии в области ИИ. [265] Большинство государств-членов ЕС опубликовали национальные стратегии в области искусственного интеллекта, а также Канада, Китай, Индия, Япония, Маврикий, Российская Федерация, Саудовская Аравия, Объединенные Арабские Эмираты, США и Вьетнам. Другие, в том числе Бангладеш, Малайзия и Тунис, находились в процессе разработки собственной стратегии искусственного интеллекта. [265] Глобальное партнерство по искусственному интеллекту было запущено в июне 2020 года, заявив о необходимости разработки ИИ в соответствии с правами человека и демократическими ценностями, чтобы обеспечить доверие общества к этой технологии. [265] Генри Киссинджер , Эрик Шмидт и Дэниел Хуттенлохер опубликовали в ноябре 2021 года совместное заявление с призывом создать правительственную комиссию по регулированию ИИ. [266] В 2023 году лидеры OpenAI опубликовали рекомендации по управлению сверхинтеллектом, что, по их мнению, может произойти менее чем через 10 лет. [267] В 2023 году Организация Объединенных Наций также создала консультативный орган для предоставления рекомендаций по управлению ИИ; В состав этого органа входят руководители технологических компаний, правительственные чиновники и ученые. [268]
Согласно опросу Ipsos 2022 года , отношение к ИИ сильно различалось в зависимости от страны; 78% граждан Китая и только 35% американцев согласились, что «продукты и услуги, использующие ИИ, имеют больше преимуществ, чем недостатков». [263] /Ipsos , проведенный в 2023 году, Опрос Reuters показал, что 61% американцев согласны и 22% не согласны с тем, что ИИ представляет угрозу для человечества. [269] В опросе Fox News 2023 года 35% американцев сочли «очень важным», а еще 41% сочли «несколько важным» регулирование ИИ со стороны федерального правительства, по сравнению с 13%, ответившими «не очень важно» и 8% отвечая «совсем не важно». [270] [271]
первый глобальный саммит по безопасности ИИ в Великобритании прошел В ноябре 2023 года в Блетчли-Парке , на котором обсуждались краткосрочные и долгосрочные риски ИИ, а также возможность создания обязательных и добровольных нормативных рамок. [272] 28 стран, включая США, Китай и Европейский Союз, в начале саммита опубликовали декларацию, призывающую к международному сотрудничеству для решения проблем и рисков, связанных с искусственным интеллектом. [273] [274] В мае 2024 года на саммите AI в Сеуле 16 мировых компаний, занимающихся технологиями искусственного интеллекта, согласились взять на себя обязательства по обеспечению безопасности при разработке искусственного интеллекта. [275] [276]
История
Изучение механического или «формального» рассуждения началось с философов и математиков древности. Изучение логики привело непосредственно к Алана Тьюринга , теории вычислений которая предполагала, что машина, перетасовывая такие простые символы, как «0» и «1», может моделировать любую мыслимую форму математического рассуждения. [277] [5] Это, наряду с одновременными открытиями в кибернетике , теории информации и нейробиологии , побудило исследователей рассмотреть возможность создания «электронного мозга». [д] Они разработали несколько областей исследований, которые впоследствии стали частью ИИ. [279] такие как Маккаллуша и Питта «искусственных нейронов» в 1943 году, разработка [280] и влиятельная статья Тьюринга 1950 года « Вычислительная техника и интеллект », в которой был представлен тест Тьюринга и показано, что «машинный интеллект» вполне правдоподобен. [281] [5]
Область исследований искусственного интеллекта была основана на семинаре в Дартмутском колледже в 1956 году. [р] [6] Участники стали лидерами исследований в области искусственного интеллекта в 1960-х годах. [с] Они и их студенты подготовили программы, которые пресса назвала «поразительными»: [т] компьютеры изучали стратегии игры в шашки , решали текстовые задачи по алгебре, доказывали логические теоремы и говорили по-английски. [в] [9] Лаборатории искусственного интеллекта были созданы в ряде университетов Великобритании и США в конце 1950-х — начале 1960-х годов. [5]
Исследователи 1960-х и 1970-х годов были убеждены, что их методы в конечном итоге позволят создать машину с общим интеллектом , и считали это целью своей области. [285] Герберт Саймон предсказал: «Через двадцать лет машины будут способны выполнять любую работу, которую может выполнить человек». [286] Марвин Мински согласился, написав: «Через поколение… проблема создания «искусственного интеллекта» будет существенно решена». [287] Однако они недооценили сложность проблемы. [v] В 1974 году правительства США и Великобритании прекратили исследовательские исследования в ответ на критику сэра Джеймса Лайтхилла. [289] и продолжающееся давление со стороны Конгресса США с целью финансирования более продуктивных проектов . [290] Мински и Паперта Книга « Перцептроны » была воспринята как доказательство того, что искусственные нейронные сети никогда не будут полезны для решения реальных задач, что полностью дискредитировало этот подход. [291] Затем последовала « зима ИИ », период, когда получение финансирования для проектов ИИ было затруднено. [11]
В начале 1980-х годов исследования ИИ возобновились благодаря коммерческому успеху экспертных систем . [292] форма программы искусственного интеллекта, которая моделирует знания и аналитические навыки людей-экспертов. К 1985 году рынок искусственного интеллекта превысил миллиард долларов. В то же время японский компьютерный проект пятого поколения вдохновил правительства США и Великобритании восстановить финансирование академических исследований . [10] Однако, начиная с краха рынка Lisp-машин в 1987 году, ИИ снова потерял репутацию, и началась вторая, более продолжительная зима. [12]
До этого момента большая часть финансирования ИИ направлялась на проекты, в которых использовались символы высокого уровня для представления мысленных объектов, таких как планы, цели, убеждения и известные факты. В 1980-х годах некоторые исследователи начали сомневаться, что такой подход сможет имитировать все процессы человеческого познания, особенно восприятие , робототехнику , обучение и распознавание образов . [293] и начал изучать «субсимволические» подходы. [294] Родни Брукс отверг «представление» в целом и сосредоточился непосредственно на разработке машин, которые движутся и выживают. [В] Джудея Перл , Лофти Заде и другие разработали методы, которые обрабатывали неполную и неопределенную информацию, делая разумные предположения, а не точную логику. [91] [299] Но самым важным событием стало возрождение « коннекционизма », включая исследования нейронных сетей, Джеффри Хинтоном и другими. [300] В 1990 году Ян ЛеКун успешно показал, что сверточные нейронные сети могут распознавать рукописные цифры, что стало первым из многих успешных применений нейронных сетей. [301]
ИИ постепенно восстановил свою репутацию в конце 1990-х и начале 21 века, используя формальные математические методы и находя конкретные решения конкретных проблем. Эта « узкая » и «формальная» направленность позволила исследователям получать поддающиеся проверке результаты и сотрудничать с другими областями (такими как статистика , экономика и математика ). [302] К 2000 году решения, разработанные исследователями искусственного интеллекта, стали широко использоваться, хотя в 1990-е годы их редко называли «искусственным интеллектом». [303] Однако некоторые академические исследователи были обеспокоены тем, что ИИ больше не преследует свою первоначальную цель — создание универсальных, полностью интеллектуальных машин. Примерно начиная с 2002 года они основали подразделение общего искусственного интеллекта (или «AGI»), в котором к 2010-м годам было несколько хорошо финансируемых учреждений. [16]
Глубокое обучение начало доминировать в отрасли в 2012 году и было внедрено во всех сферах. [13] Для многих конкретных задач от других методов отказались. [х] Успех глубокого обучения был основан как на усовершенствовании аппаратного обеспечения ( более быстрые компьютеры , [305] графические процессоры , облачные вычисления [306] ) и доступ к большим объемам данных [307] (включая тщательно подобранные наборы данных, [306] например, ImageNet ). Успех глубокого обучения привел к огромному увеличению интереса и финансирования ИИ. [и] Объем исследований в области машинного обучения (измеряемый общим количеством публикаций) увеличился на 50% в 2015–2019 годах. [265]
В 2016 году вопросы справедливости и неправомерного использования технологий оказались в центре внимания конференций по машинному обучению, количество публикаций значительно увеличилось, появилось финансирование, и многие исследователи переориентировали свою карьеру на эти проблемы. Проблема выравнивания стала серьезной областью академических исследований. [239]
В конце подросткового периода и начале 2020-х годов компании AGI начали предлагать программы, вызвавшие огромный интерес. В 2015 году AlphaGo , разработанная DeepMind , обыграла чемпиона мира по игре в го . Программу обучали только правилам игры и самостоятельно разрабатывали стратегию. GPT-3 — это большая языковая модель , выпущенная OpenAI в 2020 году и способная генерировать высококачественный текст, похожий на человеческий. [308] Эти и другие программы спровоцировали агрессивный бум искусственного интеллекта , когда крупные компании начали инвестировать миллиарды в исследования в области искусственного интеллекта. По данным AI Impacts, около 2022 года только в США в ИИ ежегодно инвестировалось около 50 миллиардов долларов, и около 20% новых выпускников докторских программ в области компьютерных наук в США специализировались в области ИИ. [309] В 2022 году в США существовало около 800 000 вакансий, связанных с искусственным интеллектом. [310]
Философия
Определение искусственного интеллекта
Алан Тьюринг написал в 1950 году: «Я предлагаю рассмотреть вопрос: могут ли машины думать?» [311] Он посоветовал изменить вопрос с «думает ли машина» на «может ли машина демонстрировать разумное поведение». [311] Он разработал тест Тьюринга, который измеряет способность машины имитировать человеческий разговор. [281] Поскольку мы можем только наблюдать за поведением машины, не имеет значения, «на самом деле» она думает или буквально имеет «разум». Тьюринг отмечает, что мы не можем определить эти вещи в отношении других людей , но «обычно существует вежливая условность, о которой думают все». [312]
Рассел и Норвиг согласны с Тьюрингом в том, что интеллект следует определять с точки зрения внешнего поведения, а не внутренней структуры. [1] Тем не менее, они очень важны, так как тест требует, чтобы машина имитировала людей. « В текстах по авиационной технике , — писали они, — цель их области деятельности не определяется как создание «машин, которые летают настолько точно, как , что могут обмануть других голубей » . голуби [313] Основатель искусственного интеллекта Джон Маккарти согласился, написав, что «искусственный интеллект по определению не является симуляцией человеческого интеллекта». [314]
Маккарти определяет интеллект как «вычислительную часть способности достигать целей в мире». [315] Другой основатель ИИ, Марвин Мински, также описывает его как «способность решать сложные проблемы». [316] Ведущий учебник по искусственному интеллекту определяет его как исследование агентов, которые воспринимают окружающую среду и предпринимают действия, которые максимизируют их шансы на достижение определенных целей. [1] Эти определения рассматривают интеллект как четко определенные проблемы с четко определенными решениями, где и сложность проблемы, и производительность программы являются прямыми мерами «разума» машины - и никакого другого философского обсуждения не требуется. или может быть даже невозможно.
Другое определение было принято Google: [317] крупный практик в области искусственного интеллекта. Это определение предусматривает способность систем синтезировать информацию как проявление интеллекта, аналогично тому, как это определяется в биологическом интеллекте.
Оценка подходов к ИИ
Никакая устоявшаяся объединяющая теория или парадигма не направляла исследования ИИ на протяжении большей части его истории. [С] Беспрецедентный успех статистического машинного обучения в 2010-х годах затмил все другие подходы (настолько, что некоторые источники, особенно в деловом мире, используют термин «искусственный интеллект» в значении «машинное обучение с нейронными сетями»). Этот подход в основном субсимволический , мягкий и узкий . Критики утверждают, что будущим поколениям исследователей ИИ, возможно, придется вернуться к этим вопросам.
Символический ИИ и его пределы
Символический ИИ (или « ГОФАИ ») [319] смоделировали сознательные рассуждения высокого уровня, которые люди используют, когда решают головоломки, выражают юридические рассуждения и занимаются математикой. Они очень успешно справлялись с «умными» задачами, такими как алгебра или тесты на IQ. В 1960-х годах Ньюэлл и Саймон предложили гипотезу системы физических символов : «Система физических символов обладает необходимыми и достаточными средствами общего разумного действия». [320]
Однако символический подход не справился со многими задачами, которые люди легко решают, такими как обучение, распознавание объекта или здравое рассуждение. Парадокс Моравца заключается в открытии того, что «интеллектуальные» задачи высокого уровня были легкими для ИИ, а «инстинктивные» задачи низкого уровня были чрезвычайно трудными. [321] Философ Хьюберт Дрейфус с 1960-х годов утверждал , что человеческий опыт зависит от бессознательного инстинкта, а не от сознательного манипулирования символами, и от «чувства» ситуации, а не от явного символического знания. [322] Хотя его аргументы были высмеяны и проигнорированы, когда они были впервые представлены, в конечном итоге исследования ИИ пришли к его мнению. [аа] [21]
Проблема не решена: субсимволические рассуждения могут совершать многие из тех же непостижимых ошибок, что и человеческая интуиция, например алгоритмическая предвзятость . Критики, такие как Ноам Хомский, утверждают, что продолжение исследований символического ИИ по-прежнему будет необходимо для достижения общего интеллекта. [324] [325] отчасти потому, что субсимволический ИИ — это отход от объяснимого ИИ : может быть трудно или невозможно понять, почему современная статистическая программа ИИ приняла то или иное решение. Развивающаяся область нейросимволического искусственного интеллекта пытается соединить два подхода.
Аккуратный против неряшливого
«Чистые» надеются, что разумное поведение описывается с использованием простых и элегантных принципов (таких как логика , оптимизация или нейронные сети ). «Неряшливы» ожидают, что это обязательно потребует решения большого количества несвязанных между собой задач. Чистоплотные защищают свои программы с теоретической строгостью, неряшливые полагаются главным образом на постепенное тестирование, чтобы увидеть, работают ли они. Этот вопрос активно обсуждался в 1970-е и 1980-е годы. [326] но в конечном итоге было сочтено неуместным. Современный ИИ имеет элементы и того, и другого.
Мягкие и жесткие вычисления
найти доказуемо правильное или оптимальное решение сложно . Для многих важных задач [20] Мягкие вычисления — это набор методов, включая генетические алгоритмы , нечеткую логику и нейронные сети, которые терпимы к неточностям, неопределенности, частичной истинности и приближению. Мягкие вычисления были представлены в конце 1980-х годов, и наиболее успешные программы искусственного интеллекта в 21 веке являются примерами мягких вычислений с нейронными сетями.
Узкий и общий ИИ
Исследователи ИИ разделились во мнениях относительно того, следует ли напрямую преследовать цели искусственного общего интеллекта и сверхинтеллекта или решать как можно больше конкретных проблем (узкий ИИ) в надежде, что эти решения косвенно приведут к долгосрочным целям в этой области. [327] [328] Общий интеллект сложно определить и измерить, а современный ИИ добился более проверяемых успехов, сосредоточив внимание на конкретных проблемах и конкретных решениях. Экспериментальное подразделение общего искусственного интеллекта изучает исключительно эту область.
Машинное сознание, разум и разум
Философия разума не знает, может ли машина обладать разумом , сознанием и психическими состояниями в том же смысле, что и люди. В этом вопросе учитывается внутренний опыт машины, а не ее внешнее поведение. Основные исследования в области искусственного интеллекта считают этот вопрос неактуальным, поскольку он не влияет на цели этой области: создание машин, которые могут решать проблемы с помощью интеллекта. Рассел и Норвиг добавляют, что «дополнительный проект по созданию машины, обладающей таким же сознанием, как и люди, — это не тот проект, за который мы готовы взяться». [329] Однако этот вопрос стал центральным в философии сознания. Это также, как правило, центральный вопрос, обсуждаемый в области искусственного интеллекта в художественной литературе .
Сознание
Дэвид Чалмерс выделил две проблемы в понимании разума, которые он назвал «сложными» и «легкими» проблемами сознания. [330] Самая простая задача — понять, как мозг обрабатывает сигналы, строит планы и контролирует поведение. Сложная проблема состоит в том, чтобы объяснить, как это ощущается или почему это вообще должно ощущаться как-то, предполагая, что мы правы, думая, что это действительно что-то ощущается (иллюзоризм сознания Деннета говорит, что это иллюзия). человеком Обработку информации легко объяснить, но субъективный опыт человека объяснить сложно. Например, легко представить человека, страдающего дальтонизмом, который научился определять, какие объекты в его поле зрения являются красными, но неясно, что потребуется, чтобы человек знал, как выглядит красный цвет . [331]
Компьютерализм и функционализм
Компьютерализм — это позиция в философии разума , согласно которой человеческий разум — это система обработки информации, а мышление — это форма вычислений. Компьютерализм утверждает, что отношения между разумом и телом аналогичны или идентичны отношениям между программным обеспечением и оборудованием и, таким образом, могут быть решением проблемы разума и тела . Эта философская позиция была вдохновлена работами исследователей ИИ и ученых-когнитивистов в 1960-х годах и первоначально была предложена философами Джерри Фодором и Хилари Патнэм . [332]
Философ Джон Сирл охарактеризовал эту позицию как « сильный ИИ »: «Правильно запрограммированный компьютер с правильными входами и выходами, таким образом, будет обладать разумом точно в том же смысле, в котором разум есть у людей». [аб] Сирл опровергает это утверждение своим аргументом о китайской комнате, который пытается показать, что, даже если машина идеально имитирует человеческое поведение, все равно нет оснований предполагать, что она также обладает разумом. [336]
Благосостояние и права ИИ
Трудно или невозможно достоверно оценить, разумен ли продвинутый ИИ (способен чувствовать), и если да, то в какой степени. [337] Но если существует значительная вероятность того, что данная машина может чувствовать и страдать, тогда она может иметь право на определенные права или меры защиты благосостояния, как и животные. [338] [339] Разумность (набор способностей, связанных с высоким интеллектом, таких как проницательность или самосознание ) может обеспечить еще одну моральную основу для прав ИИ. [338] Права роботов также иногда предлагаются как практический способ интеграции автономных агентов в общество. [340]
В 2017 году Европейский Союз рассмотрел возможность предоставления «электронной личности» некоторым наиболее способным системам искусственного интеллекта. Подобно правовому статусу компаний, он наделял бы права, но также и обязанности. [341] В 2018 году критики утверждали, что предоставление прав на системы искусственного интеллекта преуменьшит важность прав человека и что законодательство должно быть сосредоточено на потребностях пользователей, а не на спекулятивных футуристических сценариях. Они также отметили, что роботам не хватает автономии, чтобы самостоятельно участвовать в жизни общества. [342] [343]
Прогресс в области искусственного интеллекта повысил интерес к этой теме. Сторонники благополучия и прав ИИ часто утверждают, что разумность ИИ, если она появится, будет особенно легко отрицать. Они предупреждают, что это может быть моральное «слепое пятно», аналогичное рабству или промышленному сельскому хозяйству , которое может привести к широкомасштабным страданиям , если разумный ИИ будет создан и небрежно будет эксплуатироваться. [339] [338]
Будущее
Сверхразум и сингулярность
Сверхинтеллект — это гипотетический агент , обладающий интеллектом, намного превосходящим интеллект самого яркого и одаренного человеческого разума. [328]
Если бы исследования в области общего искусственного интеллекта позволили создать достаточно интеллектуальное программное обеспечение, оно могло бы перепрограммировать и улучшить себя . Усовершенствованное программное обеспечение будет еще лучше самосовершенствоваться, что приведет к тому, что И.Дж. Гуд назвал « интеллектуальным взрывом », а Вернор Виндж — « сингулярностью ». [344]
Однако технологии не могут совершенствоваться экспоненциально бесконечно и обычно следуют S-образной кривой , замедляясь, когда достигают физических пределов возможностей технологии. [345]
Трансгуманизм
Конструктор роботов Ганс Моравец , кибернетик Кевин Уорвик и изобретатель Рэй Курцвейл предсказали, что люди и машины в будущем сольются в киборгов , которые будут более способными и могущественными, чем оба. Эта идея, названная трансгуманизмом, имеет корни у Олдоса Хаксли и Роберта Эттингера . [346]
Эдвард Фредкин утверждает, что «искусственный интеллект — это следующий этап эволюции», идея, впервые предложенная Сэмюэлем Батлером в книге « Дарвин среди машин » еще в 1863 году и развитая Джорджем Дайсоном в его книге 1998 года «Дарвин среди машин». : Эволюция глобального интеллекта . [347]
В художественной литературе
Искусственные существа, способные мыслить, использовались как средства повествования еще в древности. [348] и были постоянной темой в научной фантастике . [349]
Общий образ в этих произведениях начался с Мэри Шелли » «Франкенштейна , где человеческое творение становится угрозой для своих хозяев. Сюда входят такие работы, как « Артура Кларка и Стэнли Кубрика Космическая одиссея 2001 года: Космическая одиссея» (обе 1968 года) с HAL 9000 , смертоносным компьютером, управляющим космическим кораблем Discovery One , а также «Терминатор» (1984 год) и «Матрица» (1999 год ). ). Напротив, редкие верные роботы, такие как Горт из «Дня, когда Земля остановилась» (1951) и Бишоп из «Чужих» (1986), менее заметны в популярной культуре. [350]
Айзек Азимов представил Три закона робототехники во многих рассказах, в первую очередь в « Мультивак сверхинтеллектуальном компьютере ». Законы Азимова часто поднимаются во время непрофессиональных дискуссий по этике машин; [351] хотя почти все исследователи искусственного интеллекта знакомы с законами Азимова через массовую культуру, они обычно считают эти законы бесполезными по многим причинам, одной из которых является их двусмысленность. [352]
В нескольких работах ИИ используется, чтобы заставить нас ответить на фундаментальный вопрос о том, что делает нас людьми, показывая нам искусственные существа, обладающие способностью чувствовать и, следовательно, страдать. Это появляется в фильме Карела Чапека « RUR» , фильмах «Искусственный интеллект» и «Из машины» , а также в романе « Мечтают ли андроиды об электроовцах?» , Филип К. Дик . Дик рассматривает идею о том, что наше понимание человеческой субъективности меняется благодаря технологиям, созданным с помощью искусственного интеллекта. [353]
См. также
- Программное обеспечение для обнаружения искусственного интеллекта — программное обеспечение для обнаружения контента, созданного искусственным интеллектом.
- Алгоритм выбора поведения - алгоритм, который выбирает действия для интеллектуальных агентов.
- Автоматизация бизнес-процессов – технологическая автоматизация сложных бизнес-процессов.
- Рассуждение на основе прецедентов - процесс решения новых проблем, основанный на решениях аналогичных прошлых проблем.
- Вычислительный интеллект - способность компьютера изучать конкретную задачу на основе данных или экспериментальных наблюдений.
- Цифровое бессмертие - Гипотетическая концепция хранения личности в цифровой форме.
- Эмерджентный алгоритм - алгоритм, демонстрирующий эмерджентное поведение.
- Женский гендер в технологиях искусственного интеллекта . Гендерные предубеждения в цифровых технологиях.
- Глоссарий искусственного интеллекта . Список определений терминов и понятий, обычно используемых при изучении искусственного интеллекта.
- Усиление интеллекта - использование информационных технологий для усиления человеческого интеллекта.
- Загрузка разума - гипотетический процесс цифровой имитации мозга.
- Роботизированная автоматизация процессов - форма технологии автоматизации бизнес-процессов.
- Слабый искусственный интеллект - форма искусственного интеллекта.
- Компьютер с влажным оборудованием - компьютер, состоящий из органического материала.
Пояснительные примечания
- ↑ Перейти обратно: Перейти обратно: а б Этот список интеллектуальных качеств основан на темах, охватываемых основными учебниками по искусственному интеллекту, в том числе: Рассел и Норвиг (2021) , Люгер и Стабблфилд (2004) , Пул, Макворт и Гебель (1998) и Нильссон (1998).
- ↑ Перейти обратно: Перейти обратно: а б Этот список инструментов основан на темах, охватываемых основными учебниками по искусственному интеллекту, в том числе: Russell & Norvig (2021) , Luger & Stubblefield (2004) , Poole, Mackworth & Goebel (1998) и Nilsson (1998).
- ^ Это одна из причин того, что экспертные системы оказались неэффективными для сбора знаний. [35] [36]
- ^ «Рациональный агент» — общий термин, используемый в экономике , философии и теоретическом искусственном интеллекте. Он может относиться ко всему, что направляет его поведение для достижения целей, например, к человеку, животному, корпорации, нации или, в случае ИИ, к компьютерной программе.
- ↑ Алан Тьюринг обсуждал центральную роль обучения еще в 1950 году в своей классической статье « Вычислительная техника и интеллект ». [47] В 1956 году на первой летней конференции по искусственному интеллекту в Дартмуте Рэй Соломонов написал доклад о вероятностном машинном обучении без присмотра: «Машина индуктивного вывода». [48]
- ^ См. AI Winter § Машинный перевод и отчет ALPAC за 1966 год.
- ^ По сравнению с символической логикой формальный байесовский вывод требует больших вычислительных затрат. Чтобы вывод был осуществимым, большинство наблюдений должны быть условно независимыми друг от друга. AdSense использует байесовскую сеть с более чем 300 миллионами ребер, чтобы определить, какую рекламу показывать. [98]
- ^ Ожидание-максимизация, один из самых популярных алгоритмов в машинном обучении, позволяет выполнять кластеризацию при наличии неизвестных скрытых переменных . [100]
- ^ Некоторые формы глубоких нейронных сетей (без специального алгоритма обучения) были описаны: Алан Тьюринг (1948); [119] Фрэнк Розенблатт (1957); [119] Карл Стейнбух и Роджер Дэвид Джозеф (1961). [120] Глубокие или рекуррентные сети, которые обучались (или использовали градиентный спуск), были разработаны: Эрнст Изинг и Вильгельм Ленц (1925); [121] Оливер Селфридж (1959); [120] Алексей Ивахненко и Валентин Лапа (1965); [121] Каору Накано (1977); [122] Сюн-Ичи Амари (1972); [122] Джон Джозеф Хопфилд (1982). [122] Обратное распространение ошибки было независимо обнаружено: Генри Дж. Келли (1960); [119] Артур Э. Брайсон (1962); [119] Стюарт Дрейфус (1962); [119] Артур Э. Брайсон и Ю-Чи Хо (1969); [119] Сеппо Линнаинмаа (1970); [123] Пол Вербос (1974). [119] Фактически, обратное распространение ошибки и градиентный спуск являются прямым применением Готфрида Лейбница в цепного правила исчислении (1676 г.): [124] и по существу идентичен (для одного слоя) методу наименьших квадратов , разработанному независимо Иоганном Карлом Фридрихом Гауссом (1795 г.) и Адриеном-Мари Лежандром (1805 г.). [125] Вероятно, существует множество других, которые еще предстоит открыть историкам науки.
- ↑ Джеффри Хинтон сказал о своей работе над нейронными сетями в 1990-х годах: «Наши размеченные наборы данных были в тысячи раз слишком малы. [И] наши компьютеры были в миллионы раз медленнее» [126]
- ^ Включая Джона Кляйнберга ( Корнелльский университет ), Сэндила Муллайнатана ( Чикагский университет ), Синтии Чулдеховой ( Карнеги-Меллон ) и Сэма Корбетта-Дэвиса ( Стэнфорд ) [187]
- ^ Мориц Хардт (директор Института интеллектуальных систем Макса Планка ) утверждает, что машинное обучение «в корне неправильный инструмент для многих областей, где вы пытаетесь разработать меры и механизмы, которые изменят мир». [192]
- ^ Когда закон был принят в 2018 году, он все еще содержал форму этого положения.
- ^ Это определение Организации Объединенных Наций , которое включает в себя такие вещи, как наземные мины . также [205]
- ^ См. таблицу 4; 9% — это средний показатель по ОЭСР и США. [217]
- ^ Иногда его называют « робопокалипсисом ». [225]
- ^ «Электронный мозг» — термин, использовавшийся в прессе примерно в то время. [277] [278]
- ^ Дэниел Кревье писал: «Конференция общепризнана официальной датой рождения новой науки». [282] Рассел и Норвиг назвали конференцию «зарождением искусственного интеллекта». [280]
- ↑ Рассел и Норвиг писали: «В течение следующих 20 лет в этой области будут доминировать эти люди и их ученики». [283]
- ↑ Рассел и Норвиг писали: «Это было удивительно, когда компьютер делал что-то умное». [284]
- ^ Описанные программы - это Артура Сэмюэля программа шашек IBM 701 , Дэниела Боброу STUDENT и , Ньюэлла и Саймона Theorist Logic для Терри Винограда SHRDLU .
- ^ Рассел и Норвиг пишут: «почти во всех случаях эти ранние системы не справлялись с более сложными задачами» [288]
- ^ Воплощенные подходы к ИИ [295] были поддержаны Гансом Моравецом [296] и Родни Брукс [297] и имел много названий: Nouvelle AI . [297] Развивающая робототехника , [298]
- ↑ Маттео Вонг писал в The Atlantic : «В то время как на протяжении десятилетий в таких областях компьютерных наук, как обработка естественного языка, компьютерное зрение и робототехника, использовались совершенно разные методы, теперь все они используют метод программирования, называемый «глубоким обучением». , их код и подходы стали более похожими, а их модели легче интегрировать друг в друга». [304]
- ↑ Джек Кларк написал в Bloomberg : «После пятидесяти лет тихих прорывов в области искусственного интеллекта 2015 год стал знаковым. Компьютеры стали умнее и обучаются быстрее, чем когда-либо», и отметил, что количество программных проектов, использующих машинное обучение, Число Google увеличилось с «спорадического использования» в 2012 году до более чем 2700 проектов в 2015 году. [306]
- ↑ Нильс Нильссон писал в 1983 году: «Проще говоря, в этой области существуют широкие разногласия по поводу того, что такое ИИ». [318]
- ^ Дэниел Кревье писал, что «время доказало точность и проницательность некоторых комментариев Дрейфуса. Если бы он сформулировал их менее агрессивно, предлагаемые ими конструктивные действия могли бы быть предприняты гораздо раньше». [323]
- ^ Сирл представил это определение «сильного ИИ» в 1999 году. [333] Первоначальная формулировка Сирла заключалась в следующем: «Правильно запрограммированный компьютер на самом деле является разумом в том смысле, что можно буквально сказать, что компьютеры с правильными программами понимают и имеют другие когнитивные состояния». [334] Сильный ИИ определяется Расселом и Норвигом аналогично : «Сильный ИИ – утверждение, что машины, которые это делают, на самом деле думают (а не моделируют мышление)». [335]
Ссылки
- ↑ Перейти обратно: Перейти обратно: а б с Рассел и Норвиг (2021) , стр. 1–4.
- ^ Google (2016) .
- ↑ Искусственный интеллект превысит мощность человеческого мозга. Архивировано 19 февраля 2008 г. на Wayback Machine CNN.com (26 июля 2006 г.).
- ^ Каплан, Андреас; Хэнляйн, Майкл (2019). «Сири, Сири, в моей руке: кто самый справедливый на земле? Об интерпретациях, иллюстрациях и значении искусственного интеллекта». Горизонты бизнеса . 62 : 15–25. дои : 10.1016/j.bushor.2018.08.004 . S2CID 158433736 .
- ↑ Перейти обратно: Перейти обратно: а б с д Коупленд, Дж., изд. (2004). Сущность Тьюринга: идеи, породившие компьютерную эпоху . Оксфорд, Англия: Clarendon Press. ISBN 0-19-825079-7 .
- ↑ Перейти обратно: Перейти обратно: а б Дартмутская мастерская :
- Рассел и Норвиг (2021 , стр. 18)
- МакКордак (2004 , стр. 111–136)
- НРК (1999 , стр. 200–201)
- ^ Каплан, Андреас (2022). Искусственный интеллект, бизнес и цивилизация: наша судьба, созданная машинами . Routledge фокусируется на бизнесе и менеджменте. Нью-Йорк, штат Нью-Йорк: Рутледж. ISBN 978-1-000-56333-7 .
- ^ Маркиз, Пьер; Папини, Одиль; Прад, Анри, ред. (2020). Экскурсия по исследованиям искусственного интеллекта: Том III: Интерфейсы и приложения искусственного интеллекта . Чам: Международное издательство Springer. стр. XIII. дои : 10.1007/978-3-030-06170-8 . ISBN 978-3-030-06169-2 .
- ↑ Перейти обратно: Перейти обратно: а б Успешные программы 1960-х годов:
- МакКордак (2004 , стр. 243–252)
- Кревье (1993 , стр. 52–107)
- Моравец (1988 , стр. 9)
- Рассел и Норвиг (2021 , стр. 19–21)
- ↑ Перейти обратно: Перейти обратно: а б Инициативы по финансированию в начале 1980-х годов: Проект «Пятое поколение» (Япония), Алви (Великобритания), Корпорация микроэлектроники и компьютерных технологий (США), Инициатива стратегических вычислений (США):
- МакКордак (2004 , стр. 426–441)
- Кревье (1993 , стр. 161–162, 197–203, 211, 240)
- Рассел и Норвиг (2021 , стр. 23)
- НРК (1999 , стр. 210–211)
- Ньюквист (1994 , стр. 235–248)
- ↑ Перейти обратно: Перейти обратно: а б Первая зима AI , отчет Лайтхилла , поправка Мэнсфилда
- Кревье (1993 , стр. 115–117)
- Рассел и Норвиг (2021 , стр. 21–22)
- НРК (1999 , стр. 212–213)
- Хау (1994)
- Ньюквист (1994 , стр. 189–201)
- ↑ Перейти обратно: Перейти обратно: а б Вторая зима ИИ :
- Рассел и Норвиг (2021 , стр. 24)
- МакКордак (2004 , стр. 430–435)
- Кревье (1993 , стр. 209–210)
- НРК (1999 , стр. 214–216)
- Ньюквист (1994 , стр. 301–318)
- ↑ Перейти обратно: Перейти обратно: а б глубокого обучения Революция , AlexNet :
- Гольдман (2022)
- Рассел и Норвиг (2021 , стр. 26)
- МакКинси (2018)
- ^ Тэйвс (2023) .
- ^ Фрэнк (2023) .
- ↑ Перейти обратно: Перейти обратно: а б с Общий искусственный интеллект :
- Рассел и Норвиг (2021 г. , стр. 32–33, 1020–1021)
- ^ Рассел и Норвиг (2021 , §1.2).
- ^ Решение задач, решение головоломок, игры и дедукция:
- Рассел и Норвиг (2021 г. , главы 3–5)
- Рассел и Норвиг (2021 , глава 6) ( удовлетворение ограничений )
- Пул, Макворт и Гебель (1998 , главы 2, 3, 7, 9)
- Люгер и Стабблфилд (2004 , главы 3, 4, 6, 8)
- Нильссон (1998 , глава 7–12)
- ^ Неопределенное рассуждение:
- Рассел и Норвиг (2021 г. , главы 12–18)
- Пул, Макворт и Гебель (1998 , стр. 345–395)
- Люгер и Стабблфилд (2004 , стр. 333–381)
- Нильссон (1998 , глава 7–12)
- ↑ Перейти обратно: Перейти обратно: а б с Неразрешимость, эффективность и комбинаторный взрыв :
- Рассел и Норвиг (2021 , стр. 21)
- ↑ Перейти обратно: Перейти обратно: а б с Психологические доказательства преобладания субсимволических рассуждений и знаний:
- ^ Представление знаний и инженерия знаний :
- Рассел и Норвиг (2021 , глава 10)
- Пул, Макворт и Гебель (1998 , стр. 23–46, 69–81, 169–233, 235–277, 281–298, 319–345)
- Люгер и Стабблфилд (2004 , стр. 227–243),
- Нильссон (1998 , глава 17.1–17.4, 18)
- ^ Смоляр и Чжан (1994) .
- ^ Нойманн и Мёллер (2008) .
- ^ Куперман, Райхли и Бейли (2006) .
- ^ МакГарри (2005) .
- ^ Бертини, Дель Бимбо и Торниай (2006) .
- ^ Рассел и Норвиг (2021) , стр. 272.
- ^ Представление категорий и отношений: Семантические сети , логика описания , наследование (включая фреймы и скрипты ):
- Рассел и Норвиг (2021 г. , §10.2 и 10.5),
- Пул, Макворт и Гебель (1998 , стр. 174–177),
- Люгер и Стабблфилд (2004 , стр. 248–258),
- Нильссон (1998 , глава 18.3)
- ^ Представление событий и времени: исчисление ситуаций , исчисление событий , беглое исчисление (включая решение проблемы фрейма ):
- Рассел и Норвиг (2021 , §10.3),
- Пул, Макворт и Гебель (1998 , стр. 281–298),
- Нильссон (1998 , глава 18.2)
- ^ Причинное исчисление :
- Пул, Макворт и Гебель (1998 , стр. 335–337)
- ^ Представление знаний о знаниях: исчисление убеждений, модальная логика :
- Рассел и Норвиг (2021 , §10.4),
- Пул, Макворт и Гебель (1998 , стр. 275–277)
- ↑ Перейти обратно: Перейти обратно: а б Рассуждение по умолчанию , проблема фрейма , логика по умолчанию , немонотонная логика , ограничение , предположение о замкнутом мире , похищение :
- Рассел и Норвиг (2021 , §10.6)
- Пул, Макворт и Гебель (1998 , стр. 248–256, 323–335)
- Люгер и Стабблфилд (2004 , стр. 335–363)
- Нильссон (1998 , ~18.3.3)
- ↑ Перейти обратно: Перейти обратно: а б Широта здравых знаний:
- Ленат и Гуха (1989 , Введение)
- Кревье (1993 , стр. 113–114),
- Моравец (1988 , стр. 13),
- Рассел и Норвиг (2021 , стр. 241, 385, 982) ( проблема квалификации )
- ^ Ньюквист (1994) , с. 296.
- ^ Кревье (1993) , стр. 204–208.
- ^ Рассел и Норвиг (2021) , с. 528.
- ^ Автоматизированное планирование :
- Рассел и Норвиг (2021 г. , глава 11).
- ^ Автоматизированное принятие решений , Теория принятия решений :
- Рассел и Норвиг (2021 г. , глава 16–18).
- ^ Классическое планирование :
- Рассел и Норвиг (2021 г. , раздел 11.2).
- ^ Безсенсорное или «согласованное» планирование, контингентное планирование, перепланирование (он же онлайн-планирование):
- Рассел и Норвиг (2021 г. , раздел 11.5).
- ^ Неопределенные предпочтения:
- Рассел и Норвиг (2021 , раздел 16.7)
- Рассел и Норвиг (2021 , раздел 22.6)
- ^ Теория ценности информации :
- Рассел и Норвиг (2021 г. , раздел 16.6).
- ^ Марковский процесс принятия решения :
- Рассел и Норвиг (2021 г. , глава 17).
- ^ Теория игр и теория многоагентных решений:
- Рассел и Норвиг (2021 г. , глава 18).
- ^ Обучение :
- Рассел и Норвиг (2021 г. , главы 19–22)
- Пул, Макворт и Гебель (1998 , стр. 397–438).
- Люгер и Стабблфилд (2004 , стр. 385–542)
- Нильссон (1998 , гл. 3.3, 10.3, 17.5, 20)
- ^ Тьюринг (1950) .
- ^ Соломонов (1956) .
- ^ Обучение без присмотра :
- Рассел и Норвиг (2021 , стр. 653) (определение)
- Рассел и Норвиг (2021 , стр. 738–740) ( кластерный анализ )
- Рассел и Норвиг (2021 , стр. 846–860) ( встраивание слов )
- ↑ Перейти обратно: Перейти обратно: а б Контролируемое обучение :
- Рассел и Норвиг (2021 , §19.2) (Определение)
- Рассел и Норвиг (2021 г. , главы 19–20) (Методы)
- ^ Обучение с подкреплением :
- Рассел и Норвиг (2021 , глава 22)
- Люгер и Стабблфилд (2004 , стр. 442–449)
- ^ Передача обучения :
- Рассел и Норвиг (2021 , стр. 281)
- Экономист (2016)
- ^ «Искусственный интеллект (ИИ): что такое ИИ и как он работает? | Встроенный» . встроенный.com . Проверено 30 октября 2023 г.
- ^ Теория вычислительного обучения :
- Рассел и Норвиг (2021 , стр. 672–674)
- Джордан и Митчелл (2015)
- ^ Обработка естественного языка (НЛП):
- Рассел и Норвиг (2021 г. , главы 23–24)
- Пул, Макворт и Гебель (1998 , стр. 91–104).
- Люгер и Стабблфилд (2004 , стр. 591–632)
- ^ Подзадачи НЛП :
- Рассел и Норвиг (2021 , стр. 849–850)
- ^ Рассел и Норвиг (2021) , стр. 856–858.
- ^ Диксон (2022) .
- ^ Современные статистические подходы и подходы к глубокому обучению в НЛП :
- Рассел и Норвиг (2021 , глава 24)
- Камбрия и Уайт (2014)
- ^ Винсент (2019) .
- ^ Рассел и Норвиг (2021) , стр. 875–878.
- ^ Бушвик (2023) .
- ^ Компьютерное зрение :
- Рассел и Норвиг (2021 , глава 25)
- Нильссон (1998 , глава 6)
- ^ Рассел и Норвиг (2021) , стр. 849–850.
- ^ Рассел и Норвиг (2021) , стр. 895–899.
- ^ Рассел и Норвиг (2021) , стр. 899–901.
- ^ Чалла и др. (2011) .
- ^ Рассел и Норвиг (2021) , стр. 931–938.
- ^ С АИЛ (2014) .
- ^ Аффективные вычисления :
- ^ Уодделл (2018) .
- ^ Пория и др. (2017) .
- ^ Алгоритмы поиска :
- Рассел и Норвиг (2021 г. , главы 3–5)
- Пул, Макворт и Гебель (1998 , стр. 113–163).
- Люгер и Стабблфилд (2004 , стр. 79–164, 193–219)
- Нильссон (1998 , глава 7–12)
- ^ Поиск в пространстве состояний :
- Рассел и Норвиг (2021 , глава 3)
- ^ Рассел и Норвиг (2021) , §11.2.
- ^ Неинформированный поиск ( поиск в ширину , поиск в глубину и поиск в пространстве общего состояния ):
- Рассел и Норвиг (2021 , §3.4)
- Пул, Макворт и Гебель (1998 , стр. 113–132).
- Люгер и Стабблфилд (2004 , стр. 79–121)
- Нильссон (1998 , глава 8)
- ^ Эвристический или информированный поиск (например, жадный «сначала лучший» и A* ):
- Рассел и Норвиг (2021 , раздел 3.5)
- Пул, Макворт и Гебель (1998 , стр. 132–147)
- Пул и Макворт (2017 , §3.6)
- Люгер и Стабблфилд (2004 , стр. 133–150)
- ^ Состязательный поиск :
- Рассел и Норвиг (2021 , глава 5)
- ^ Локальный поиск или поиск по « оптимизации »:
- Рассел и Норвиг (2021 , глава 4)
- ^ Сингх Чаухан, Нагеш (18 декабря 2020 г.). «Алгоритмы оптимизации в нейронных сетях» . КДнаггетс . Проверено 13 января 2024 г.
- ^ Эволюционные вычисления :
- Рассел и Норвиг (2021 , §4.1.2)
- ^ Меркл и Миддендорф (2013) .
- ^ Логика :
- Рассел и Норвиг (2021 г. , главы 6–9)
- Люгер и Стабблфилд (2004 , стр. 35–77)
- Нильссон (1998 , глава 13–16)
- ^ Пропозициональная логика :
- Рассел и Норвиг (2021 , глава 6)
- Люгер и Стабблфилд (2004 , стр. 45–50)
- Нильссон (1998 , глава 13)
- ^ Логика первого порядка и такие функции, как равенство :
- Рассел и Норвиг (2021 , глава 7)
- Пул, Макворт и Гебель (1998 , стр. 268–275),
- Люгер и Стабблфилд (2004 , стр. 50–62),
- Нильссон (1998 , глава 15)
- ^ Логический вывод :
- Рассел и Норвиг (2021 , глава 10)
- ^ логический вывод в виде поиска:
- Рассел и Норвиг (2021 , §9.3, §9.4)
- Пул, Макворт и Гебель (1998 , стр. ~46–52)
- Люгер и Стабблфилд (2004 , стр. 62–73)
- Нильссон (1998 , главы 4.2, 7.2)
- ^ Разрешение и унификация :
- Рассел и Норвиг (2021 г. , §7.5.2, §9.2, §9.5)
- ^ Уоррен, Д.Х.; Перейра, LM; Перейра, Ф. (1977). «Пролог-язык и его реализация в сравнении с Лиспом». Уведомления ACM SIGPLAN . 12 (8): 109–115. дои : 10.1145/872734.806939 .
- ^ Нечеткая логика:
- Рассел и Норвиг (2021 , стр. 214, 255, 459)
- Научный американец (1999)
- ↑ Перейти обратно: Перейти обратно: а б Стохастические методы для неопределенных рассуждений:
- Рассел и Норвиг (2021 г. , главы 12–18 и 20),
- Пул, Макворт и Гебель (1998 , стр. 345–395),
- Люгер и Стабблфилд (2004 , стр. 165–191, 333–381),
- Нильссон (1998 , глава 19)
- ^ теория принятия решений и анализ решений :
- Рассел и Норвиг (2021 г. , глава 16–18),
- Пул, Макворт и Гебель (1998 , стр. 381–394).
- ^ Теория ценности информации :
- Рассел и Норвиг (2021 , §16.6)
- ^ Марковские процессы принятия решений и динамические сети принятия решений :
- Рассел и Норвиг (2021 , глава 17)
- ↑ Перейти обратно: Перейти обратно: а б с Стохастические временные модели:
- Рассел и Норвиг (2021 , глава 14)
- Рассел и Норвиг (2021 , §14.3)
- Рассел и Норвиг (2021 , §14.4)
- Рассел и Норвиг (2021 , §14.5)
- ^ Теория игр и проектирование механизмов :
- Рассел и Норвиг (2021 , глава 18)
- ^ Байесовские сети :
- Рассел и Норвиг (2021 г. , §12.5–12.6, §13.4–13.5, §14.3–14.5, §16.5, §20.2–20.3),
- Пул, Макворт и Гебель (1998 , стр. 361–381),
- Люгер и Стабблфилд (2004 , стр. ~182–190, ≈363–379),
- Нильссон (1998 , глава 19.3–4)
- ^ Домингос (2015) , глава 6.
- ^ байесовского вывода Алгоритм :
- Рассел и Норвиг (2021 г. , §13.3–13.5),
- Пул, Макворт и Гебель (1998 , стр. 361–381),
- Люгер и Стабблфилд (2004 , стр. ~363–379),
- Нильссон (1998 , главы 19.4 и 7)
- ^ Домингос (2015) , с. 210.
- ^ Байесовское обучение и алгоритм максимизации ожидания :
- Рассел и Норвиг (2021 , глава 20),
- Пул, Макворт и Гебель (1998 , стр. 424–433),
- Нильссон (1998 , глава 20)
- Воскресенье (2015 , стр. 210)
- ^ Байесовская теория принятия решений и байесовские сети принятия решений :
- Рассел и Норвиг (2021 , §16.5)
- ^ Статистические методы обучения и классификаторы :
- Рассел и Норвиг (2021 , глава 20),
- ^ Деревья решений :
- Рассел и Норвиг (2021 , §19.3)
- Воскресенье (2015 , стр. 88)
- ^ Непараметрические модели обучения, такие как K-ближайший сосед и машины опорных векторов :
- Рассел и Норвиг (2021 , §19.7)
- Домингос (2015 , стр. 187) (к-ближайший сосед)
- Домингос (2015 , стр. 88) (методы ядра)
- ^ Домингос (2015) , с. 152.
- ^ Наивный байесовский классификатор :
- Рассел и Норвиг (2021 , §12.6)
- Воскресенье (2015 , стр. 152)
- ↑ Перейти обратно: Перейти обратно: а б Нейронные сети:
- Рассел и Норвиг (2021 , глава 21),
- Домингос (2015 , глава 4)
- ^ Вычисление градиента в вычислительных графах, обратное распространение ошибки , автоматическое дифференцирование :
- Рассел и Норвиг (2021 , §21.2),
- Люгер и Стабблфилд (2004 , стр. 467–474),
- Нильссон (1998 , глава 3.3)
- ^ Теорема об универсальной аппроксимации :
- Рассел и Норвиг (2021 , стр. 752)
- ^ Нейронные сети прямого распространения :
- Рассел и Норвиг (2021 , §21.1)
- ^ Рекуррентные нейронные сети :
- Рассел и Норвиг (2021 , §21.6)
- ^ Перцептроны :
- Рассел и Норвиг (2021 , стр. 21, 22, 683, 22)
- ↑ Перейти обратно: Перейти обратно: а б Глубокое обучение :
- ^ Сверточные нейронные сети :
- Рассел и Норвиг (2021 , §21.3)
- ^ Дэн и Ю (2014) , стр. 199–200.
- ^ Чиресан, Мейер и Шмидхубер (2012) .
- ^ Рассел и Норвиг (2021) , с. 751.
- ↑ Перейти обратно: Перейти обратно: а б с д и ж г Рассел и Норвиг (2021) , с. 785.
- ↑ Перейти обратно: Перейти обратно: а б Шмидхубер (2022) , §5.
- ↑ Перейти обратно: Перейти обратно: а б Шмидхубер (2022) , §6.
- ↑ Перейти обратно: Перейти обратно: а б с Шмидхубер (2022) , §7.
- ^ Шмидхубер (2022) , §8.
- ^ Шмидхубер (2022) , §2.
- ^ Шмидхубер (2022) , §3.
- ^ Цитируется по Кристиану (2020 , стр. 22).
- ^ Смит (2023) .
- ^ «Объяснение: Генеративный ИИ» . 9 ноября 2023 г.
- ^ «Инструменты для написания искусственного интеллекта и создания контента» . Технологии преподавания и обучения Массачусетского технологического института Слоана . Проверено 25 декабря 2023 г.
- ^ Мармуйе (2023) .
- ^ Кобелус (2019) .
- ^ Томасон, Джеймс (21 мая 2024 г.). «Восстание Mojo: возрождение языков программирования, ориентированных на искусственный интеллект» . ВенчурБит . Проверено 26 мая 2024 г.
- ^ Водецки, Бен (5 мая 2023 г.). «7 языков программирования искусственного интеллекта, которые вам нужно знать» . ИИ-бизнес .
- ^ Давенпорт, Т; Калакота, Р. (июнь 2019 г.). «Потенциал искусственного интеллекта в здравоохранении» . Будущее Здоровьеc Дж . 6 (2): 94–98. дои : 10.7861/futurehosp.6-2-94 . ПМК 6616181 . ПМИД 31363513 .
- ↑ Перейти обратно: Перейти обратно: а б Бакс, Моник; Торп, Джордан; Романов, Валентин (декабрь 2023 г.). «Будущее персонализированной сердечно-сосудистой медицины требует 3D- и 4D-печати, стволовых клеток и искусственного интеллекта» . Границы в сенсорах . 4 . дои : 10.3389/fsens.2023.1294721 . ISSN 2673-5067 .
- ^ Джампер, Дж; Эванс, Р; Притцель, А (2021). «Высокоточное предсказание структуры белка с помощью AlphaFold» . Природа . 596 (7873): 583–589. Бибкод : 2021Natur.596..583J . дои : 10.1038/s41586-021-03819-2 . ПМЦ 8371605 . PMID 34265844 .
- ^ «ИИ открывает новый класс антибиотиков для уничтожения устойчивых к лекарствам бактерий» . 20 декабря 2023 г.
- ^ «ИИ в десять раз ускоряет разработку лекарств от болезни Паркинсона» . Кембриджский университет. 17 апреля 2024 г.
- ^ Хорн, Роберт И.; Анджеевска, Ева А.; Алам, Парвез; Бротзакис, З. Фейдон; Шривастава, Анкит; Обер, Алиса; Новинска, Магдалена; Грегори, Ребекка С.; Стаатс, Роксина; Поссенти, Андреа; Чиа, Шон; Сорманни, Пьетро; Гетти, Бернардино; Коги, Байрон; Ноулз, Туомас П.Дж.; Вендруколо, Микеле (17 апреля 2024 г.). «Открытие мощных ингибиторов агрегации α-синуклеина с использованием структурного итеративного обучения» . Химическая биология природы . 20 (5). Природа: 634–645. дои : 10.1038/s41589-024-01580-x . ПМЦ 11062903 . ПМИД 38632492 .
- ^ Грант, Юджин Ф.; Ларднер, Рекс (25 июля 1952 г.). «Городской разговор - Это» . Житель Нью-Йорка . ISSN 0028-792X . Проверено 28 января 2024 г.
- ^ Андерсон, Марк Роберт (11 мая 2017 г.). «Двадцать лет спустя после матча Deep Blue против Каспарова: как шахматный матч положил начало революции больших данных» . Разговор . Проверено 28 января 2024 г.
- ^ Маркофф, Джон (16 февраля 2011 г.). «Компьютер побеждает в игре «Jeopardy!»: это не тривиально» . Нью-Йорк Таймс . ISSN 0362-4331 . Проверено 28 января 2024 г.
- ^ Байфорд, Сэм (27 мая 2017 г.). «AlphaGo уходит из соревновательного го после победы над номером один в мире со счетом 3–0» . Грань . Проверено 28 января 2024 г.
- ^ Браун, Ноам; Сандхольм, Туомас (30 августа 2019 г.). «Сверхчеловеческий ИИ для многопользовательского покера» . Наука . 365 (6456): 885–890. Бибкод : 2019Sci...365..885B . дои : 10.1126/science.aay2400 . ISSN 0036-8075 . ПМИД 31296650 .
- ^ «MuZero: Освоение го, шахмат, сёги и Atari без правил» . Гугл ДипМайнд . 23 декабря 2020 г. Проверено 28 января 2024 г.
- ^ Сэмпл, Ян (30 октября 2019 г.). «ИИ становится гроссмейстером в «чертовски сложном» StarCraft II» . Хранитель . ISSN 0261-3077 . Проверено 28 января 2024 г.
- ^ Вурман, PR; Барретт, С.; Кавамото, К. (2022). «Обгоняйте водителей-чемпионов Gran Turismo с помощью глубокого обучения с подкреплением». Природа . 602 (7896): 223–228. Бибкод : 2022Natur.602..223W . дои : 10.1038/s41586-021-04357-7 . ПМИД 35140384 .
- ^ Мэтью Финио и Аманда Дауни: Учебник IBM Think 2024, «Что такое искусственный интеллект (ИИ) в финансах?» 8 декабря 2023 г.
- ^ М. Николас Дж. Фирзли: журнал Pensions Age/European Pensions, «Искусственный интеллект: спросите отрасль», май, июнь 2024 г., https://videovoice.org/ai-in-finance-innovation-entrepreneurship-vs-over-regulation- с актом-искусственного-интеллекта-ЕС-не-работает-как-задумано/
- ↑ Перейти обратно: Перейти обратно: а б с Исследовательская служба Конгресса (2019). Искусственный интеллект и национальная безопасность (PDF) . Вашингтон, округ Колумбия: Исследовательская служба Конгресса. PD-уведомление
- ↑ Перейти обратно: Перейти обратно: а б Слюсарь, Вадим (2019). «Искусственный интеллект как основа будущих сетей управления» . Исследовательские ворота . дои : 10.13140/RG.2.2.30247.50087 .
- ^ Найт, Уилл. «США и 30 других стран согласились установить барьеры для военного ИИ» . Проводной . ISSN 1059-1028 . Проверено 24 января 2024 г.
- ^ Марселин, Марко (27 мая 2023 г.). «ChatGPT: большинство американцев знают об этом, но мало кто на самом деле пользуется чат-ботом с искусственным интеллектом» . PCMag . Проверено 28 января 2024 г.
- ^ Лу, Донна (31 марта 2023 г.). «Дезинформация, ошибки и Папа в пуховике: что может – и не может – сделать быстро развивающийся ИИ» . Хранитель . ISSN 0261-3077 . Проверено 28 января 2024 г.
- ^ Херст, Люк (23 мая 2023 г.). «Как фейковое изображение взрыва в Пентагоне, опубликованное в Твиттере, вызвало настоящий спад на Уолл-стрит» . Евроньюс . Проверено 28 января 2024 г.
- ^ Рэнсботам, Сэм; Кирон, Дэвид; Герберт, Филипп; Ривз, Мартин (6 сентября 2017 г.). «Изменение бизнеса с помощью искусственного интеллекта» . Обзор менеджмента Слоана MIT . Архивировано из оригинала 13 февраля 2024 года.
- ^ Сунь, Юран; Чжао, Силэй; Ловреглио, Руджеро; Кулиговски, Эрика (1 января 2024 г.), Насер, М.З. (редактор), «8 – ИИ для крупномасштабного моделирования эвакуации: обещания и проблемы» , Интерпретируемое машинное обучение для анализа, проектирования, оценки и принятия обоснованных решений в сфере гражданского строительства. Инфраструктура , Серия публикаций Woodhead Publishing по гражданскому и строительному проектированию, Woodhead Publishing, стр. 185–204, ISBN 978-0-12-824073-1 , получено 28 июня 2024 г.
- ^ Гомаа, Ислам; Адельзаде, Масуд; Гвинн, Стивен; Спенсер, Брюс; Ко, Юн; Бенишу, Нуреддин; Ма, Чуньюн; Эльсаган, Нур; Дуонг, Дана; Залок, Эхав; Кинатедер, Макс (1 ноября 2021 г.). «Система интеллектуальной системы обнаружения пожара и эвакуации» . Огненная техника . 57 (6): 3179–3185. дои : 10.1007/s10694-021-01157-3 . ISSN 1572-8099 .
- ^ Чжао, Силэй; Ловреглио, Руджеро; Нильссон, Дэниел (1 мая 2020 г.). «Моделирование и интерпретация принятия решений перед эвакуацией с использованием машинного обучения» . Автоматизация в строительстве . 113 : 103140. doi : 10.1016/j.autcon.2020.103140 . ISSN 0926-5805 .
- ^ Симонит (2016) .
- ^ Рассел и Норвиг (2021) , с. 987.
- ^ Ласковский (2023) .
- ^ ГАО (2022) .
- ^ Валинский (2019) .
- ^ Рассел и Норвиг (2021) , с. 991.
- ^ Рассел и Норвиг (2021) , стр. 991–992.
- ^ Кристиан (2020) , с. 63.
- ^ Винсент (2022) .
- ^ Копел, Мэтью. «Услуги по авторским правам: добросовестное использование» . Библиотека Корнеллского университета . Проверено 26 апреля 2024 г.
- ^ Берджесс, Мэтт. «Как предотвратить использование ваших данных для обучения ИИ» . Проводной . ISSN 1059-1028 . Проверено 26 апреля 2024 г.
- ^ Райснер (2023) .
- ^ Альтер и Харрис (2023) .
- ^ «Подготовка инновационной экосистемы к использованию ИИ. Инструментарий политики в области интеллектуальной собственности» (PDF) . ВОИС .
- ^ Никас (2018) .
- ^ Рейни, Ли; Китер, Скотт; Перрен, Эндрю (22 июля 2019 г.). «Доверие и недоверие в Америке» . Исследовательский центр Пью . Архивировано из оригинала 22 февраля 2024 года.
- ^ Уильямс (2023) .
- ^ Тейлор и Херн (2023) .
- ↑ Перейти обратно: Перейти обратно: а б Роза (2023) .
- ^ CNA (2019) .
- ^ Гоффри (2008) , с. 17.
- ^ Бердал и др. (2023 г.) ; Гоффри (2008 , стр. 17); Роуз (2023) ; Рассел и Норвиг (2021 , стр. 995)
- ^ Алгоритмическая предвзятость и справедливость (машинное обучение) :
- Рассел и Норвиг (2021 г. , раздел 27.3.3)
- Кристиан (2020 , Справедливость)
- ^ Кристиан (2020) , с. 25.
- ↑ Перейти обратно: Перейти обратно: а б Рассел и Норвиг (2021) , с. 995.
- ^ Грант и Хилл (2023) .
- ^ Ларсон и Ангвин (2016) .
- ^ Кристиан (2020) , с. 67–70.
- ^ Кристиан (2020 , стр. 67–70); Рассел и Норвиг (2021 , стр. 993–994)
- ^ Рассел и Норвиг (2021 , стр. 995); Липартито (2011 , стр. 36); Гудман и Флаксман (2017 , стр. 6); Кристиан (2020 , стр. 39–40, 65)
- ^ Цитируется по Кристиану (2020 , стр. 65).
- ^ Рассел и Норвиг (2021 , стр. 994); Кристиан (2020 , стр. 40, 80–81)
- ^ Цитируется по Christian (2020 , стр. 80).
- ^ Докрилл (2022) .
- ^ Образец (2017) .
- ^ «Черный ящик ИИ» . 16 июня 2023 г.
- ^ Кристиан (2020) , с. 110.
- ^ Кристиан (2020) , стр. 88–91.
- ^ Кристиан (2020 , стр. 83); Рассел и Норвиг (2021 , стр. 997)
- ^ Кристиан (2020) , с. 91.
- ^ Кристиан (2020) , с. 83.
- ^ Верма (2021) .
- ^ Ротман (2020) .
- ^ Кристиан (2020) , стр. 105–108.
- ^ Кристиан (2020) , стр. 108–112.
- ^ Рассел и Норвиг (2021) , с. 989.
- ↑ Перейти обратно: Перейти обратно: а б Рассел и Норвиг (2021) , стр. 987–990.
- ^ Рассел и Норвиг (2021) , с. 988.
- ^ Робицки (2018) ; Сайнато (2015)
- ^ Харари (2018) .
- ^ Бакли, Крис; Мозур, Пол (22 мая 2019 г.). «Как Китай использует высокотехнологичную слежку для подчинения меньшинств» . Нью-Йорк Таймс .
- ^ «Нарушение безопасности выявило китайскую систему наблюдения за умным городом» . 3 мая 2019 г. Архивировано из оригинала 7 марта 2021 г. Проверено 14 сентября 2020 г.
- ^ Урбина и др. (2022) .
- ^ Мец, Кейд (10 июля 2023 г.). «В эпоху искусственного интеллекта маленьким ребятам из сферы технологий нужны большие друзья» . Нью-Йорк Таймс .
- ↑ Перейти обратно: Перейти обратно: а б Э. Макгоги, «Смогут ли роботы автоматизировать вашу работу?» Полная занятость, базовый доход и экономическая демократия »(2022) 51 (3) Журнал промышленного права 511–559. Архивировано 27 мая 2023 г. в Wayback Machine.
- ^ Форд и Колвин (2015) ; Макгоги (2022)
- ^ IGM Чикаго (2017) .
- ^ Арнц, Грегори и Зиран (2016) , с. 33.
- ^ Лор (2017) ; Фрей и Осборн (2017) ; Арнц, Грегори и Зиран (2016 , стр. 33)
- ^ Чжоу, Виола (11 апреля 2023 г.). «ИИ уже занимает работу иллюстраторов видеоигр в Китае» . Остальной мир . Проверено 17 августа 2023 г.
- ^ Картер, Джастин (11 апреля 2023 г.). «Сообщается, что китайская индустрия игрового искусства уничтожена растущим использованием искусственного интеллекта» . Разработчик игры . Проверено 17 августа 2023 г.
- ^ Моргенштерн (2015) .
- ^ Махдави (2017) ; Томпсон (2014)
- ^ Тарнов, Бен (4 августа 2023 г.). «Уроки Элизы». Еженедельник Гардиан . стр. 34–39.
- ^ Селлан-Джонс (2014) .
- ^ Рассел и Норвиг 2021 , с. 1001.
- ^ Бостром (2014) .
- ^ Рассел (2019) .
- ^ Бостром (2014) ; Мюллер и Бостром (2014) ; Бостром (2015) .
- ^ Харари (2023) .
- ^ Мюллер и Бостром (2014) .
- ^ Обеспокоенность лидеров по поводу экзистенциальных рисков ИИ примерно в 2015 году:
- ^ Вэлэнс (2023) .
- ^ Тейлор, Джош (7 мая 2023 г.). «Рост искусственного интеллекта неизбежен, но его не следует бояться», — говорит «отец ИИ» . Хранитель . Проверено 26 мая 2023 г.
- ^ Колтон, Эмма (7 мая 2023 г.). « Отец ИИ» говорит, что опасения, связанные с технологиями, неуместны: «Вы не можете остановить это» » . Фокс Ньюс . Проверено 26 мая 2023 г.
- ^ Джонс, Хесси (23 мая 2023 г.). «Юрген Шмидхубер, известный «отец современного искусственного интеллекта», говорит, что работа всей его жизни не приведет к антиутопии» . Форбс . Проверено 26 мая 2023 г.
- ^ МакМорроу, Райан (19 декабря 2023 г.). «Эндрю Нг: «Считаем ли мы, что мир будет лучше, если у него будет больше или меньше интеллекта?» " . Файнэншл Таймс . Проверено 30 декабря 2023 г.
- ^ Леви, Стивен (22 декабря 2023 г.). «Как не быть глупым насчет искусственного интеллекта, с Яном Лекуном» . Проводной . Проверено 30 декабря 2023 г.
- ^ Аргументы в пользу того, что ИИ не представляет собой неминуемый риск:
- ↑ Перейти обратно: Перейти обратно: а б Кристиан (2020) , стр. 67, 73.
- ^ Юдковский (2008) .
- ↑ Перейти обратно: Перейти обратно: а б Андерсон и Андерсон (2011) .
- ^ АААИ (2014) .
- ^ Уоллах (2010) .
- ^ Рассел (2019) , с. 173.
- ^ Стюарт, Эшли; Мелтон, Моника. «Генеральный директор Hugging Face говорит, что он сосредоточен на создании «устойчивой модели» для стартапа с открытым исходным кодом в области искусственного интеллекта стоимостью 4,5 миллиарда долларов» . Бизнес-инсайдер . Проверено 14 апреля 2024 г.
- ^ Виггерс, Кайл (9 апреля 2024 г.). «Инструменты Google с открытым исходным кодом для поддержки разработки моделей ИИ» . ТехКранч . Проверено 14 апреля 2024 г.
- ^ Небеса, Уилл Дуглас (12 мая 2023 г.). «Бум искусственного интеллекта с открытым исходным кодом основан на подачках крупных технологических компаний. Как долго он продлится?» . Обзор технологий Массачусетского технологического института . Проверено 14 апреля 2024 г.
- ^ Бродский, Саша (19 декабря 2023 г.). «Новая языковая модель Mistral AI нацелена на превосходство открытого исходного кода» . ИИ-бизнес .
- ^ Эдвардс, Бендж (22 февраля 2024 г.). «Stability анонсирует Stable Diffusion 3, генератор изображений нового поколения с использованием искусственного интеллекта» . Арс Техника . Проверено 14 апреля 2024 г.
- ^ Маршалл, Мэтт (29 января 2024 г.). «Как предприятия используют LLM с открытым исходным кодом: 16 примеров» . ВенчурБит .
- ^ Пайпер, Келси (2 февраля 2024 г.). «Должны ли мы сделать наши самые мощные модели искусственного интеллекта открытыми для всех?» . Вокс . Проверено 14 апреля 2024 г.
- ^ Институт Алана Тьюринга (2019). «Понимание этики и безопасности искусственного интеллекта» (PDF) .
- ^ Институт Алана Тьюринга (2023 г.). «Этика и управление ИИ на практике» (PDF) .
- ^ Флориди, Лучано; Коулс, Джош (23 июня 2019 г.). «Единая структура пяти принципов использования ИИ в обществе» . Гарвардский обзор науки о данных . 1 (1). дои : 10.1162/99608f92.8cd550d1 . S2CID 198775713 .
- ^ Бурук, Бану; Экмекчи, Перихан Элиф; Арда, Берна (1 сентября 2020 г.). «Критический взгляд на руководящие принципы ответственного и заслуживающего доверия искусственного интеллекта» . Медицина, здравоохранение и философия . 23 (3): 387–399. дои : 10.1007/s11019-020-09948-1 . ISSN 1572-8633 . ПМИД 32236794 . S2CID 214766800 .
- ^ Камила, Манодж Кумар; Джасротия, Сахил Сингх (1 января 2023 г.). «Этические проблемы развития искусственного интеллекта: признание рисков» . Международный журнал этики и систем . перед печатью (перед печатью). дои : 10.1108/IJOES-05-2023-0107 . ISSN 2514-9369 . S2CID 259614124 .
- ^ «Институт безопасности ИИ выпускает новую платформу оценки безопасности ИИ» . Правительство Великобритании. 10 мая 2024 г. Проверено 14 мая 2024 г.
- ^ « Крестный отец искусственного интеллекта» рассказывает о влиянии и потенциале нового ИИ» . Новости CBS . 25 марта 2023 г. Архивировано из оригинала 28 марта 2023 г. Проверено 28 марта 2023 г.
- ^ Ошибка цитирования: именованная ссылка
:2
был вызван, но так и не был определен (см. страницу справки ). - ↑ Эрлихман, Джон, «Шанс 50 на 50», что ИИ перехитрит человечество, говорит Джеффри Хинтон , BNN Bloomberg, 14 июня 2024 г.
- ^ Регулирование ИИ для снижения рисков:
- ^ Юридическая библиотека Конгресса (США). Управление глобальных правовых исследований (2019 г.) .
- ↑ Перейти обратно: Перейти обратно: а б Винсент (2023) .
- ^ Стэнфордский университет (2023) .
- ↑ Перейти обратно: Перейти обратно: а б с д ЮНЕСКО (2021 г.) .
- ^ Киссинджер (2021) .
- ^ Альтман, Брокман и Суцкевер (2023) .
- ^ Новости «Голоса Америки» (25 октября 2023 г.). «ООН объявляет о создании консультативного органа по искусственному интеллекту» .
- ^ Эдвардс (2023) .
- ^ Касперович (2023) .
- ^ Фокс Ньюс (2023) .
- ^ Милмо, Дэн (3 ноября 2023 г.). «Надежда или ужас? Великие дебаты об искусственном интеллекте, разделившие его пионеров». Еженедельник Гардиан . стр. 10–12.
- ^ «Декларация Блетчли стран, принявших участие в Саммите по безопасности ИИ, 1–2 ноября 2023 г.» . GOV.UK. 1 ноября 2023 года. Архивировано из оригинала 1 ноября 2023 года . Проверено 2 ноября 2023 г.
- ^ «Страны соглашаются на безопасное и ответственное развитие передового искусственного интеллекта в знаковой Декларации Блетчли» . GOV.UK (пресс-релиз). Архивировано из оригинала 1 ноября 2023 года . Проверено 1 ноября 2023 г.
- ^ «Второй глобальный саммит по искусственному интеллекту обеспечивает обязательства компаний по обеспечению безопасности» . Рейтер. 21 мая 2024 г. Проверено 23 мая 2024 г.
- ^ «Обязательства по обеспечению безопасности ИИ, Саммит AI в Сеуле 2024» . gov.uk. 21 мая 2024 года. Архивировано из оригинала 23 мая 2024 года . Проверено 23 мая 2024 г.
- ↑ Перейти обратно: Перейти обратно: а б Рассел и Норвиг 2021 , с. 9.
- ^ «Google книги ngram» .
- ^ Непосредственные предшественники ИИ:
- МакКордак (2004 , стр. 51–107)
- Кревье (1993 , стр. 27–32)
- Рассел и Норвиг (2021 , стр. 8–17)
- Моравец (1988 , стр. 3)
- ↑ Перейти обратно: Перейти обратно: а б Рассел и Норвиг (2021) , с. 17.
- ↑ Перейти обратно: Перейти обратно: а б Оригинальная публикация Тьюринга теста Тьюринга в « Вычислительной технике и интеллекте »: Историческое влияние и философские последствия:
- Хаугеланд (1985 , стр. 6–9)
- Кревье (1993 , стр. 24)
- МакКордак (2004 , стр. 70–71)
- Рассел и Норвиг (2021 , стр. 2, 984)
- ^ Кревье (1993) , стр. 47–49.
- ^ Рассел и Норвиг (2003) , с. 17.
- ^ Рассел и Норвиг (2003) , с. 18.
- ^ Ньюквист (1994) , стр. 86–86.
- ^ Саймон (1965 , стр. 96), цитируется по Crevier (1993 , стр. 109).
- ^ Минский (1967 , стр. 2), цитируется по Crevier (1993 , стр. 109).
- ^ Рассел и Норвиг (2021) , с. 21.
- ^ Лайтхилл (1973) .
- ^ NRC 1999 , стр. 212–213.
- ^ Рассел и Норвиг (2021) , с. 22.
- ^ Экспертные системы :
- Рассел и Норвиг (2021 , стр. 23, 292)
- Люгер и Стабблфилд (2004 , стр. 227–331)
- Нильссон (1998 , глава 17.4)
- МакКордак (2004 , стр. 327–335, 434–435)
- Кревье (1993 , стр. 145–162, 197–203)
- Ньюквист (1994 , стр. 155–183)
- ^ Рассел и Норвиг (2021) , с. 24.
- ^ Нильссон (1998) , стр. 7.
- ^ МакКордак (2004) , стр. 454–462.
- ^ Моравец (1988) .
- ↑ Перейти обратно: Перейти обратно: а б Брукс (1990) .
- ^ Развивающая робототехника :
- ^ Рассел и Норвиг (2021) , с. 25.
- ^
- Кревье (1993 , стр. 214–215)
- Рассел и Норвиг (2021 , стр. 24, 26)
- ^ Рассел и Норвиг (2021) , с. 26.
- ^ Формальные и узкие методы, принятые в 1990-е годы:
- Рассел и Норвиг (2021 , стр. 24–26)
- МакКордак (2004 , стр. 486–487)
- ^ ИИ широко использовался в конце 1990-х годов:
- Курцвейл (2005 , стр. 265)
- НРК (1999 , стр. 216–222)
- Ньюквист (1994 , стр. 189–201)
- ^ Люди (2023) .
- ^ Закон Мура и ИИ:
- Рассел и Норвиг (2021 , стр. 14, 27)
- ↑ Перейти обратно: Перейти обратно: а б с Кларк (2015b) .
- ^ Большие данные :
- Рассел и Норвиг (2021 , стр. 26)
- ^ Сагар, Рам (3 июня 2020 г.). «OpenAI выпускает GPT-3, самую большую модель на данный момент» . Журнал Analytics India Magazine . Архивировано из оригинала 4 августа 2020 года . Проверено 15 марта 2023 г.
- ^ ДиФелициантонио (2023) .
- ^ Госвами (2023) .
- ↑ Перейти обратно: Перейти обратно: а б Тьюринг (1950) , с. 1.
- ^ Тьюринг (1950) , В разделе «Аргумент от сознания».
- ^ Рассел и Норвиг (2021) , с. 3.
- ^ Создатель (2006) .
- ^ Маккарти (1999) .
- ^ Минский (1986) .
- ^ «Что такое искусственный интеллект (ИИ)?» . Облачная платформа Google . Архивировано из оригинала 31 июля 2023 года . Проверено 16 октября 2023 г.
- ^ Нильссон (1983) , стр. 10.
- ^ Хаугеланд (1985) , стр. 112–117.
- ^ Гипотеза системы физических символов:
- Ньюэлл и Саймон (1976 , стр. 116)
- МакКордак (2004 , стр. 153)
- Рассел и Норвиг (2021 , стр. 19)
- ^ Парадокс Моравеца :
- Моравец (1988 , стр. 15–16)
- Минский (1986 , с. 29)
- Пинкер (2007 , стр. 190–191)
- ^ Критика ИИ Дрейфусом : Историческое значение и философские последствия:
- Кревье (1993 , стр. 120–132)
- МакКордак (2004 , стр. 211–239)
- Рассел и Норвиг (2021 , стр. 981–982)
- Фирн (2007 , глава 3)
- ^ Кревье (1993) , с. 125.
- ^ Лэнгли (2011) .
- ^ Кац (2012) .
- ^ Аккуратность против неряшливости , исторические дебаты:
- МакКордак (2004 , стр. 421–424, 486–489)
- Кревье (1993 , стр. 168)
- Нильссон (1983 , стр. 10–11)
- Рассел и Норвиг (2021 , стр. 24)
- ^ Пенначин и Герцель (2007) .
- ↑ Перейти обратно: Перейти обратно: а б Робертс (2016) .
- ^ Рассел и Норвиг (2021) , с. 986.
- ^ Чалмерс (1995) .
- ^ Деннетт (1991) .
- ^ Хорст (2005) .
- ^ Сирл (1999) .
- ^ Сирл (1980) , с. 1.
- ^ Рассел и Норвиг (2021) , с. 9817.
- ^ Аргумент Сирла в китайской комнате :
- Сирл (1980) . Оригинальное изложение мысленного эксперимента Сирлом.
- Сирл (1999) .
- Рассел и Норвиг (2021 , стр. 985)
- МакКордак (2004 , стр. 443–445)
- Кревье (1993 , стр. 269–271)
- ^ Лейт, Сэм (7 июля 2022 г.). «Ник Бостром: Как мы можем быть уверены, что машина не находится в сознании?» . Зритель . Проверено 23 февраля 2024 г.
- ↑ Перейти обратно: Перейти обратно: а б с Томсон, Джонни (31 октября 2022 г.). «Почему у роботов нет прав?» . Большое Думай . Проверено 23 февраля 2024 г.
- ↑ Перейти обратно: Перейти обратно: а б Кейтман, Брайан (24 июля 2023 г.). «ИИ должен бояться людей» . Время . Проверено 23 февраля 2024 г.
- ^ Вонг, Джефф (10 июля 2023 г.). «Что лидерам нужно знать о правах роботов» . Компания Фаст .
- ^ Херн, Алекс (12 января 2017 г.). «Придайте роботам статус личности, - утверждает комитет ЕС» . Хранитель . ISSN 0261-3077 . Проверено 23 февраля 2024 г.
- ^ Дови, Дана (14 апреля 2018 г.). «Эксперты не считают, что у роботов должны быть права» . Newsweek . Проверено 23 февраля 2024 г.
- ^ Кадди, Элис (13 апреля 2018 г.). «Права роботов нарушают права человека, предупреждают эксперты ЕС» . Евроньюс . Проверено 23 февраля 2024 г.
- ^ Интеллектуальный взрыв и технологическая сингулярность :
- Рассел и Норвиг (2021 , стр. 1004–1005)
- Омохундро (2008)
- Курцвейл (2005)
- ^ Рассел и Норвиг (2021) , с. 1005.
- ^ Трансгуманизм :
- Моравский (1988)
- Курцвейл (2005)
- Рассел и Норвиг (2021 , стр. 1005)
- ^ ИИ как эволюция:
- Эдвард Фредкин цитируется у МакКордака (2004 , стр. 401).
- Батлер (1863)
- Дайсон (1998)
- ^ ИИ в мифе:
- МакКордак (2004 , стр. 4–5)
- ^ МакКордак (2004) , стр. 340–400.
- ^ Бутаццо (2001) .
- ^ Андерсон (2008) .
- ^ МакКоли (2007) .
- ^ Гальван (1997) .
Учебники по искусственному интеллекту
Два наиболее широко используемых учебника в 2023 году (см. Открытую программу ).
- Рассел, Стюарт Дж .; Норвиг, Питер. (2021). Искусственный интеллект: современный подход (4-е изд.). Хобокен: Пирсон. ISBN 978-0134610993 . LCCN 20190474 .
- Рич, Элейн ; Найт, Кевин; Наир, Шивашанкар Б (2010). Искусственный интеллект (3-е изд.). Нью-Дели: Тата МакГроу Хилл, Индия. ISBN 978-0070087705 .
Это были четыре наиболее широко используемых учебника по ИИ в 2008 году:
- Люгер, Джордж ; Стабблфилд, Уильям (2004). Искусственный интеллект: структуры и стратегии решения сложных проблем (5-е изд.). Бенджамин/Каммингс. ISBN 978-0-8053-4780-7 . Архивировано из оригинала 26 июля 2020 года . Проверено 17 декабря 2019 г.
- Нильссон, Нильс (1998). Искусственный интеллект: новый синтез . Морган Кауфманн. ISBN 978-1-55860-467-4 . Архивировано из оригинала 26 июля 2020 года . Проверено 18 ноября 2019 г.
- Рассел, Стюарт Дж .; Норвиг, Питер (2003), Искусственный интеллект: современный подход (2-е изд.), Аппер-Сэдл-Ривер, Нью-Джерси: Прентис-Холл, ISBN 0-13-790395-2 .
- Пул, Дэвид ; Макворт, Алан ; Гебель, Рэнди (1998). Вычислительный интеллект: логический подход . Нью-Йорк: Издательство Оксфордского университета. ISBN 978-0-19-510270-3 . Архивировано из оригинала 26 июля 2020 года . Проверено 22 августа 2020 г.
Более поздние издания.
- Пул, Дэвид; Макворт, Алан (2017). Искусственный интеллект: основы вычислительных агентов (2-е изд.). Издательство Кембриджского университета. ISBN 978-1-107-19539-4 . Архивировано из оригинала 7 декабря 2017 года . Проверено 6 декабря 2017 г.
История ИИ
- Кревье, Дэниел (1993). ИИ: бурные поиски искусственного интеллекта . Нью-Йорк, штат Нью-Йорк: BasicBooks. ISBN 0-465-02997-3 . .
- МакКордак, Памела (2004), Машины, которые думают (2-е изд.), Натик, Массачусетс: AK Peters, Ltd., ISBN 1-56881-205-1 .
- Ньюквист, HP (1994). Создатели мозга: гений, эго и жадность в поисках мыслящих машин . Нью-Йорк: Макмиллан/САМС. ISBN 978-0-672-30412-5 .
Другие источники
- ИИ и машинное обучение в Fusion
- AI и ML в Fusion, видеолекция. Архивировано 2 июля 2023 г. в Wayback Machine.
- «АльфаГо – Google DeepMind» . Архивировано из оригинала 10 марта 2016 года.
- Альтер, Александра; Харрис, Элизабет А. (20 сентября 2023 г.), «Франзен, Гришэм и другие выдающиеся авторы подают в суд на OpenAI» , The New York Times
- Альтман, Сэм ; Брокман, Грег ; Суцкевер, Илья (22 мая 2023 г.). «Управление сверхинтеллектом» . openai.com . Архивировано из оригинала 27 мая 2023 года . Проверено 27 мая 2023 г.
- Андерсон, Сьюзен Ли (2008). «Три закона робототехники» Азимова и метаэтика машин. ИИ и общество . 22 (4): 477–493. дои : 10.1007/s00146-007-0094-5 . S2CID 1809459 .
- Андерсон, Майкл; Андерсон, Сьюзан Ли (2011). Машинная этика . Издательство Кембриджского университета.
- Арнц, Мелани; Грегори, Терри; Зиран, Ульрих (2016), «Риск автоматизации рабочих мест в странах ОЭСР: сравнительный анализ», Рабочие документы ОЭСР по социальным вопросам, занятости и миграции 189
- Асада, М.; Хосода, К.; Куниёси, Ю.; Исигуро, Х.; Инуи, Т.; Ёсикава, Ю.; Огино, М.; Ёсида, К. (2009). «Когнитивная развивающая робототехника: опрос». Транзакции IEEE по автономному умственному развитию . 1 (1): 12–34. дои : 10.1109/тамд.2009.2021702 . S2CID 10168773 .
- «Спросите экспертов по искусственному интеллекту: что движет сегодняшним прогрессом в области искусственного интеллекта?» . МакКинси и компания . Архивировано из оригинала 13 апреля 2018 года . Проверено 13 апреля 2018 г.
- Барфилд, Вудро; Пагалло, Уго (2018). Научно-исследовательский справочник по закону искусственного интеллекта . Челтнем, Великобритания: Издательство Эдварда Элгара. ISBN 978-1-78643-904-8 . OCLC 1039480085 .
- Бил, Дж.; Уинстон, Патрик (2009), «Новые рубежи искусственного интеллекта человеческого уровня», IEEE Intelligent Systems , 24 : 21–24, doi : 10.1109/MIS.2009.75 , hdl : 1721.1/52357 , S2CID 32437713
- Бердал, Карл Томас; Бейкер, Лоуренс; Манн, Шон; Особа, Осонде; Джирози, Федерико (7 февраля 2023 г.). «Стратегии по улучшению воздействия искусственного интеллекта на справедливость в отношении здоровья: обзор объема» . ЖМИР А.И. 2 : е42936. дои : 10.2196/42936 . ISSN 2817-1705 . ПМЦ 11041459 . S2CID 256681439 .
- Берлински, Дэвид (2000). Появление алгоритма . Книги Харкорта. ISBN 978-0-15-601391-8 . OCLC 46890682 . Архивировано из оригинала 26 июля 2020 года . Проверено 22 августа 2020 г.
- Беррихилл, Джейми; Хеанг, Кевин Кок; Клогер, Роб; Макбрайд, Киган (2019). Привет, мир: искусственный интеллект и его использование в государственном секторе (PDF) . Париж: Обсерватория инноваций государственного сектора ОЭСР. Архивировано (PDF) из оригинала 20 декабря 2019 года . Проверено 9 августа 2020 г.
- Бертини, М; Дель Бимбо, А; Торняй, К. (2006). «Автоматическое аннотирование и семантический поиск видеопоследовательностей с использованием мультимедийных онтологий». ММ '06 Материалы 14-й международной конференции ACM по мультимедиа . 14-я международная конференция ACM по мультимедиа. Санта-Барбара: ACM. стр. 679–682.
- Бостром, Ник (2014). Суперинтеллект: пути, опасности, стратегии . Издательство Оксфордского университета.
- Бостром, Ник (2015). «Что произойдет, когда наши компьютеры станут умнее нас?» . ТЭД (конференция) . Архивировано из оригинала 25 июля 2020 года . Проверено 30 января 2020 г.
- Брукс, Родни (10 ноября 2014 г.). «Искусственный интеллект — это инструмент, а не угроза» . Архивировано из оригинала 12 ноября 2014 года.
- Брукс, Родни (1990). «Слоны не играют в шахматы» (PDF) . Робототехника и автономные системы . 6 (1–2): 3–15. CiteSeerX 10.1.1.588.7539 . дои : 10.1016/S0921-8890(05)80025-9 . Архивировано (PDF) из оригинала 9 августа 2007 г.
- Бьютен, Мириам С. (2019). «На пути к интеллектуальному регулированию искусственного интеллекта» . Европейский журнал регулирования рисков . 10 (1): 41–59. дои : 10.1017/ошибка.2019.8 . ISSN 1867-299Х .
- Бушвик, Софи (16 марта 2023 г.), «На что способен новый ИИ GPT-4» , Scientific American
- Батлер, Сэмюэл (13 июня 1863 г.). «Дарвин среди машин» . Письма в редакцию. Пресса . Крайстчерч, Новая Зеландия. Архивировано из оригинала 19 сентября 2008 года . Проверено 16 октября 2014 г. - через Университет Виктории в Веллингтоне.
- Бутаццо, Г. (июль 2001 г.). «Искусственное сознание: утопия или реальная возможность?». Компьютер . 34 (7): 24–30. дои : 10.1109/2.933500 .
- Камбрия, Эрик; Уайт, Бебо (май 2014 г.). «Прыжки по кривым НЛП: обзор исследований обработки естественного языка [обзорная статья]». Журнал IEEE Computational Intelligence . 9 (2): 48–57. дои : 10.1109/MCI.2014.2307227 . S2CID 206451986 .
- Селлан-Джонс, Рори (2 декабря 2014 г.). «Стивен Хокинг предупреждает, что искусственный интеллект может положить конец человечеству» . Новости Би-би-си . Архивировано из оригинала 30 октября 2015 года . Проверено 30 октября 2015 г.
- Чалмерс, Дэвид (1995). «К проблеме сознания» . Журнал исследований сознания . 2 (3): 200–219. Архивировано из оригинала 8 марта 2005 года . Проверено 11 октября 2018 г.
- Чалла, Субхаш; Морленд, Марк Р.; Мушицкий, Дарко; Эванс, Робин Дж. (2011). Основы отслеживания объектов . Издательство Кембриджского университета. дои : 10.1017/CBO9780511975837 .
- Кристиан, Брайан (2020). Проблема согласования : машинное обучение и человеческие ценности . WW Нортон и компания. ISBN 978-0-393-86833-3 . OCLC 1233266753 .
- Чиресан, Д.; Мейер, У.; Шмидхубер, Дж. (2012). «Многостолбцовые глубокие нейронные сети для классификации изображений». Конференция IEEE 2012 по компьютерному зрению и распознаванию образов . стр. 3642–3649. arXiv : 1202.2745 . дои : 10.1109/cvpr.2012.6248110 . ISBN 978-1-4673-1228-8 . S2CID 2161592 .
- Кларк, Джек (2015b). «Почему 2015 год стал годом прорыва в области искусственного интеллекта» . Bloomberg.com . Архивировано из оригинала 23 ноября 2016 года . Проверено 23 ноября 2016 г.
- CNA (12 января 2019 г.). «Комментарий: Плохие новости. Искусственный интеллект предвзят» . ЦНА . Архивировано из оригинала 12 января 2019 года . Проверено 19 июня 2020 г.
- Цыбенко, Г. (1988). Достаточно непрерывных нейронных сетей с двумя скрытыми слоями (Отчет). Департамент компьютерных наук Университета Тафтса.
- Дэн, Л.; Ю, Д. (2014). «Глубокое обучение: методы и приложения» (PDF) . Основы и тенденции в области обработки сигналов . 7 (3–4): 1–199. дои : 10.1561/2000000039 . Архивировано (PDF) из оригинала 14 марта 2016 года . Проверено 18 октября 2014 г.
- Деннетт, Дэниел (1991). Объяснение сознания . Пингвин Пресс. ISBN 978-0-7139-9037-9 .
- ДиФелициантонио, Чейз (3 апреля 2023 г.). «ИИ уже изменил мир. Этот отчет показывает, как» . Хроники Сан-Франциско . Архивировано из оригинала 19 июня 2023 года . Проверено 19 июня 2023 г.
- Диксон, Бен (2 мая 2022 г.). «Машинное обучение: какова архитектура трансформатора?» . Технические переговоры . Проверено 22 ноября 2023 г.
- Докрилл, Питер (27 июня 2022 г.), «Роботы с ошибочным искусственным интеллектом принимают сексистские и расистские решения, показывают эксперименты» , Science Alert , заархивировано из оригинала 27 июня 2022 г.
- Домингос, Педро (2015). Главный алгоритм: как поиски совершенной обучающейся машины изменят наш мир . Основные книги . ISBN 978-0465065707 .
- Дрейфус, Хьюберт (1972). Чего не могут компьютеры . Нью-Йорк: MIT Press. ISBN 978-0-06-011082-6 .
- Дрейфус, Юбер ; Дрейфус, Стюарт (1986). Разум над машиной: сила человеческой интуиции и опыта в эпоху компьютеров . Оксфорд: Блэквелл. ISBN 978-0-02-908060-3 . Архивировано из оригинала 26 июля 2020 года . Проверено 22 августа 2020 г.
- Дайсон, Джордж (1998). Дарвин среди машин . Аллан Лейн Наука. ISBN 978-0-7382-0030-9 . Архивировано из оригинала 26 июля 2020 года . Проверено 22 августа 2020 г.
- Эдельсон, Эдвард (1991). Нервная система . Нью-Йорк: Дом Челси. ISBN 978-0-7910-0464-7 . Архивировано из оригинала 26 июля 2020 года . Проверено 18 ноября 2019 г.
- Эдвардс, Бендж (17 мая 2023 г.). «Опрос: ИИ представляет опасность для человечества, по мнению большинства американцев» . Арс Техника . Архивировано из оригинала 19 июня 2023 года . Проверено 19 июня 2023 г.
- Эванс, Вуди (2015). «Постчеловеческие права: измерения трансчеловеческих миров» . Технокультура . 12 (2). дои : 10.5209/rev_TK.2015.v12.n2.49072 .
- Фирн, Николас (2007). Последние ответы на древнейшие вопросы: философское приключение с величайшими мыслителями мира . Нью-Йорк: Гроув Пресс. ISBN 978-0-8021-1839-4 .
- Форд, Мартин; Колвин, Джефф (6 сентября 2015 г.). «Будут ли роботы создавать больше рабочих мест, чем уничтожать?» . Хранитель . Архивировано из оригинала 16 июня 2018 года . Проверено 13 января 2018 г.
- Фокс Ньюс (2023). «Опрос Fox News» (PDF) . Фокс Ньюс. Архивировано (PDF) из оригинала 12 мая 2023 года . Проверено 19 июня 2023 г.
- Фрэнк, Майкл (22 сентября 2023 г.). «Лидерство США в области искусственного интеллекта может сформировать глобальный порядок XXI века» . Дипломат . Проверено 8 декабря 2023 г.
Вместо этого Соединенные Штаты создали новую область доминирования, на которую остальной мир смотрит со смесью благоговения, зависти и негодования: искусственный интеллект... От моделей ИИ и исследований до облачных вычислений и венчурного капитала, американские компании, университеты и исследовательские лаборатории – и их филиалы в странах-союзниках – похоже, имеют огромное преимущество как в разработке передового искусственного интеллекта, так и в его коммерциализации. Стоимость венчурных инвестиций США в стартапы в области искусственного интеллекта превышает аналогичный показатель в остальном мире вместе взятом.
- Фрей, Карл Бенедикт; Осборн, Майкл А. (1 января 2017 г.). «Будущее занятости: насколько рабочие места подвержены компьютеризации?». Технологическое прогнозирование и социальные изменения . 114 : 254–280. CiteSeerX 10.1.1.395.416 . doi : 10.1016/j.techfore.2016.08.019 . ISSN 0040-1625 .
- «От неработы к нейронным сетям» . Экономист . 2016. Архивировано из оригинала 31 декабря 2016 года . Проверено 26 апреля 2018 г.
- Гальван, Джилл (1 января 1997 г.). «Вхождение в постчеловеческий коллектив в книге Филипа К. Дика «Мечтают ли андроиды об электроовцах?» ». Научно-фантастические исследования . 24 (3): 413–429. JSTOR 4240644 .
- Гейст, Эдвард Мур (9 августа 2015 г.). «Является ли искусственный интеллект реальной угрозой человечеству?» . Бюллетень ученых-атомщиков . Архивировано из оригинала 30 октября 2015 года . Проверено 30 октября 2015 г.
- Гертнер, Джон (18 июля 2023 г.). «Момент истины Википедии. Может ли онлайн-энциклопедия помочь научить чат-ботов с искусственным интеллектом правильно излагать факты, не разрушая при этом себя? + комментарий» . Нью-Йорк Таймс . Архивировано из оригинала 18 июля 2023 года . Проверено 19 июля 2023 г.
- Гиббс, Сэмюэл (27 октября 2014 г.). «Илон Маск: искусственный интеллект — наша самая большая экзистенциальная угроза» . Хранитель . Архивировано из оригинала 30 октября 2015 года . Проверено 30 октября 2015 г.
- Гоффри, Эндрю (2008). "Алгоритм". В Фуллере, Мэтью (ред.). Программное обеспечение: лексикон . Кембридж, Массачусетс: MIT Press. стр. 15–20 . ISBN 978-1-4356-4787-9 .
- Голдман, Шэрон (14 сентября 2022 г.). «10 лет спустя «революция» глубокого обучения продолжается, — говорят пионеры искусственного интеллекта Хинтон, Лекун и Ли» . ВенчурБит . Проверено 8 декабря 2023 г.
- Гуд, Ай-Джей (1965), Размышления о первой сверхразумной машине
- Гудфеллоу, Ян; Бенджио, Йошуа; Курвиль, Аарон (2016), Deep Learning , MIT Press., заархивировано из оригинала 16 апреля 2016 г. , получено 12 ноября 2017 г.
- Гудман, Брайс; Флаксман, Сет (2017). «Правила ЕС об алгоритмическом принятии решений и «праве на объяснение» ». Журнал ИИ . 38 (3): 50. arXiv : 1606.08813 . дои : 10.1609/aimag.v38i3.2741 . S2CID 7373959 .
- Счетная палата правительства (13 сентября 2022 г.). Потребительские данные: более широкое использование создает риски для конфиденциальности . gao.gov (отчет).
- Грант, Нико; Хилл, Кашмир (22 мая 2023 г.). «Приложение Google Photo до сих пор не может найти горилл. И Apple тоже » Нью-Йорк Таймс .
- Госвами, Рохан (5 апреля 2023 г.). «Вот где находятся рабочие места для ИИ» . CNBC . Архивировано из оригинала 19 июня 2023 года . Проверено 19 июня 2023 г.
- Харари, Юваль Ной (октябрь 2018 г.). «Почему технологии благоприятствуют тирании» . Атлантика . Архивировано из оригинала 25 сентября 2021 года . Проверено 23 сентября 2021 г.
- Харари, Юваль Ной (2023). «ИИ и будущее человечества» . Ютуб .
- Хаугеланд, Джон (1985). Искусственный интеллект: сама идея . Кембридж, Массачусетс: MIT Press. ISBN 978-0-262-08153-5 .
- Хендерсон, Марк (24 апреля 2007 г.). «Права человека для роботов? Мы увлекаемся» . «Таймс онлайн» . Лондон. Архивировано из оригинала 31 мая 2014 года . Проверено 31 мая 2014 г.
- Хинтон, Г.; Дэн, Л.; Ю, Д.; Даль, Г.; Мохамед, А.; Джейтли, Н.; Старший, А.; Ванхук, В.; Нгуен, П.; Сайнат, Т. ; Кингсбери, Б. (2012). «Глубокие нейронные сети для акустического моделирования в распознавании речи - общие взгляды четырех исследовательских групп». Журнал обработки сигналов IEEE . 29 (6): 82–97. Бибкод : 2012ISPM...29...82H . дои : 10.1109/msp.2012.2205597 . S2CID 206485943 .
- Холли, Питер (28 января 2015 г.). «Билл Гейтс об опасностях искусственного интеллекта: «Я не понимаю, почему некоторые люди не обеспокоены» » . Вашингтон Пост . ISSN 0190-8286 . Архивировано из оригинала 30 октября 2015 года . Проверено 30 октября 2015 г.
- Хорник, Курт; Стинчкомб, Максвелл; Уайт, Халберт (1989). Многослойные сети прямого распространения — универсальные аппроксиматоры (PDF) . Нейронные сети . Том. 2. Пергамон Пресс. стр. 359–366.
- Хорст, Стивен (2005). «Вычислительная теория разума» . Стэнфордская энциклопедия философии . Архивировано из оригинала 6 марта 2016 года . Проверено 7 марта 2016 г.
- Хоу, Дж. (ноябрь 1994 г.). «Искусственный интеллект в Эдинбургском университете: перспектива» . Архивировано из оригинала 15 мая 2007 года . Проверено 30 августа 2007 г.
- IGM Чикаго (30 июня 2017 г.). «Роботы и искусственный интеллект» . www.igmchicago.org . Архивировано из оригинала 1 мая 2019 года . Проверено 3 июля 2019 г.
- Ипхофен, Рон; Критикос, Михалис (3 января 2019 г.). «Регулирование искусственного интеллекта и робототехники: задуманная этика в цифровом обществе». Современная общественная наука . 16 (2): 170–184. дои : 10.1080/21582041.2018.1563803 . ISSN 2158-2041 . S2CID 59298502 .
- Джордан, Мичиган; Митчелл, ТМ (16 июля 2015 г.). «Машинное обучение: тенденции, перспективы и перспективы». Наука . 349 (6245): 255–260. Бибкод : 2015Sci...349..255J . дои : 10.1126/science.aaa8415 . ПМИД 26185243 . S2CID 677218 .
- Канеман, Дэниел (2011). Мышление быстрое и медленное . Макмиллан. ISBN 978-1-4299-6935-2 . Архивировано из оригинала 15 марта 2023 года . Проверено 8 апреля 2012 г.
- Канеман, Дэниел ; Слович, Д.; Тверски, Амос (1982). «Суждение в условиях неопределенности: эвристика и предвзятость». Наука . 185 (4157). Нью-Йорк: Издательство Кембриджского университета: 1124–1131. Бибкод : 1974Sci...185.1124T . дои : 10.1126/science.185.4157.1124 . ISBN 978-0-521-28414-1 . ПМИД 17835457 . S2CID 143452957 .
- Касперович, Питер (1 мая 2023 г.). «Регулировать ИИ? Республиканская партия гораздо более скептически, чем демократы, считает, что правительство может сделать это правильно: опрос» . Фокс Ньюс . Архивировано из оригинала 19 июня 2023 года . Проверено 19 июня 2023 г.
- Кац, Ярден (1 ноября 2012 г.). «Ноам Хомский о том, где искусственный интеллект пошёл не так» . Атлантика . Архивировано из оригинала 28 февраля 2019 года . Проверено 26 октября 2014 г.
- «Кисмет» . Лаборатория искусственного интеллекта Массачусетского технологического института, группа гуманоидной робототехники. Архивировано из оригинала 17 октября 2014 года . Проверено 25 октября 2014 г.
- Киссинджер, Генри (1 ноября 2021 г.). «Проблема быть человеком в эпоху искусственного интеллекта» . Уолл Стрит Джорнал . Архивировано из оригинала 4 ноября 2021 года . Проверено 4 ноября 2021 г.
- Кобелус, Джеймс (27 ноября 2019 г.). «Графические процессоры продолжают доминировать на рынке ускорителей искусственного интеллекта» . Информационная неделя . Архивировано из оригинала 19 октября 2021 года . Проверено 11 июня 2020 г.
- Куперман, Г.Дж.; Райчли, РМ; Бейли, TC (1 июля 2006 г.). «Использование коммерческих баз знаний для поддержки принятия клинических решений: возможности, препятствия и рекомендации» . Журнал Американской ассоциации медицинской информатики . 13 (4): 369–371. дои : 10.1197/jamia.M2055 . ПМЦ 1513681 . ПМИД 16622160 .
- Курцвейл, Рэй (2005). Сингулярность уже близко . Книги о пингвинах. ISBN 978-0-670-03384-3 .
- Лэнгли, Пэт (2011). «Изменяющаяся наука о машинном обучении» . Машинное обучение . 82 (3): 275–279. дои : 10.1007/s10994-011-5242-y .
- Ларсон, Джефф; Ангвин, Джулия (23 мая 2016 г.). «Как мы анализировали алгоритм рецидива COMPAS» . ПроПублика . Архивировано из оригинала 29 апреля 2019 года . Проверено 19 июня 2020 г.
- Ласковски, Николь (ноябрь 2023 г.). «Что такое искусственный интеллект и как работает ИИ? TechTarget» . Корпоративный ИИ . Проверено 30 октября 2023 г.
- Юридическая библиотека Конгресса (США). Управление глобальных правовых исследований, орган, выдающий документы. (2019). Регулирование искусственного интеллекта в отдельных юрисдикциях . LCCN 2019668143 . OCLC 1110727808 .
- Ли, Тимоти Б. (22 августа 2014 г.). «Уничтожит ли искусственный интеллект человечество? Вот 5 причин не беспокоиться» . Вокс . Архивировано из оригинала 30 октября 2015 года . Проверено 30 октября 2015 г.
- Ленат, Дуглас ; Гуха, Р.В. (1989). Создание больших систем, основанных на знаниях . Аддисон-Уэсли. ISBN 978-0-201-51752-1 .
- Лайтхилл, Джеймс (1973). «Искусственный интеллект: общий обзор». Искусственный интеллект: докладный симпозиум . Научно-исследовательский совет.
- Липартито, Кеннет (6 января 2011 г.), Повествование и алгоритм: жанры кредитной отчетности с девятнадцатого века до наших дней (PDF) (неопубликованная рукопись), doi : 10.2139/ssrn.1736283 , S2CID 166742927 , заархивировано (PDF) из оригинал от 9 октября 2022 г.
- Лор, Стив (2017). «Роботы займут рабочие места, но не так быстро, как некоторые опасаются, говорится в новом докладе» . Нью-Йорк Таймс . Архивировано из оригинала 14 января 2018 года . Проверено 13 января 2018 г.
- Лунгарелла, М.; Метта, Г.; Пфайфер, Р.; Сандини, Г. (2003). «Развитая робототехника: опрос». Наука о связях . 15 (4): 151–190. CiteSeerX 10.1.1.83.7615 . дои : 10.1080/09540090310001655110 . S2CID 1452734 .
- «Машинная этика» . aaai.org . Архивировано из оригинала 29 ноября 2014 года.
- Мадригал, Алексис К. (27 февраля 2015 г.). «Дело против роботов-убийц от парня, который на самом деле работает над искусственным интеллектом» . Fusion.net . Архивировано из оригинала 4 февраля 2016 года . Проверено 31 января 2016 г.
- Махдави, Арва (26 июня 2017 г.). «Какие рабочие места останутся через 20 лет? Прочтите это, чтобы подготовить свое будущее» . Хранитель . Архивировано из оригинала 14 января 2018 года . Проверено 13 января 2018 г.
- Создатель, Мэг Хьюстон (2006). «AI@50: ИИ прошлое, настоящее, будущее» . Дартмутский колледж. Архивировано из оригинала 3 января 2007 года . Проверено 16 октября 2008 г.
- Мармуйе, Франсуаза (15 декабря 2023 г.). «Google Gemini: действительно ли новая модель искусственного интеллекта лучше ChatGPT?» . Разговор . Проверено 25 декабря 2023 г.
- Мински, Марвин (1986), Общество разума , Саймон и Шустер
- Машафильм (2010). «Содержание: фильм «Подключи и молись» – Искусственный интеллект – Роботы» . plugandpray-film.de . Архивировано из оригинала 12 февраля 2016 года.
- Маккарти, Джон ; Мински, Марвин ; Рочестер, Натан ; Шеннон, Клод (1955). «Предложение для Дартмутского летнего исследовательского проекта по искусственному интеллекту» . Архивировано из оригинала 26 августа 2007 года . Проверено 30 августа 2007 г.
- Маккарти, Джон (2007), «Отсюда к искусственному интеллекту человеческого уровня», Искусственный интеллект : 171.
- Маккарти, Джон (1999), Что такое ИИ? , заархивировано из оригинала 4 декабря 2022 года , получено 4 декабря 2022 года.
- МакКоли, Ли (2007). «ИИ-Армагеддон и три закона робототехники». Этика и информационные технологии . 9 (2): 153–164. CiteSeerX 10.1.1.85.8904 . дои : 10.1007/s10676-007-9138-2 . S2CID 37272949 .
- МакГарри, Кен (1 декабря 2005 г.). «Обзор мер интересности для открытия знаний». Обзор инженерии знаний . 20 (1): 39–61. дои : 10.1017/S0269888905000408 . S2CID 14987656 .
- Макгоги, Э. (2022), Автоматизируют ли роботы вашу работу? Полная занятость, базовый доход и экономическая демократия , с. 51(3) Industrial Law Journal 511–559, doi : 10.2139/ssrn.3044448 , S2CID 219336439 , SSRN 3044448 , заархивировано из оригинала 31 января 2021 г. , получено 27 мая 2023 г.
- Меркл, Дэниел; Миддендорф, Мартин (2013). «Ройовой интеллект». В Берке, Эдмунд К.; Кендалл, Грэм (ред.). Методологии поиска: вводные уроки по методам оптимизации и поддержки принятия решений . Springer Science & Business Media. ISBN 978-1-4614-6940-7 .
- Мински, Марвин (1967), Вычисления: конечные и бесконечные машины , Энглвуд Клиффс, Нью-Джерси: Прентис-Холл
- Моравец, Ганс (1988). Разумные дети . Издательство Гарвардского университета. ISBN 978-0-674-57616-2 . Архивировано из оригинала 26 июля 2020 года . Проверено 18 ноября 2019 г.
- Моргенштерн, Майкл (9 мая 2015 г.). «Автоматизация и тревога» . Экономист . Архивировано из оригинала 12 января 2018 года . Проверено 13 января 2018 г.
- Мюллер, Винсент К.; Бостром, Ник (2014). «Будущий прогресс в области искусственного интеллекта: опрос экспертов» (PDF) . ИИ имеет значение . 1 (1): 9–11. дои : 10.1145/2639475.2639478 . S2CID 8510016 . Архивировано (PDF) из оригинала 15 января 2016 года.
- Нойманн, Бернд; Мёллер, Ральф (январь 2008 г.). «Интерпретация на месте с логикой описания». Вычисление изображений и зрительных образов . 26 (1): 82–101. дои : 10.1016/j.imavis.2007.08.013 . S2CID 10767011 .
- Нильссон, Нильс (1995), «Взгляд на приз», журнал AI , том. 16, стр. 9–17.
- Ньюэлл, Аллен ; Саймон, ХА (1976). «Информатика как эмпирическое исследование: символы и поиск» . Коммуникации АКМ . 19 (3): 113–126. дои : 10.1145/360018.360022 .
- Никас, Джек (7 февраля 2018 г.). «Как YouTube заводит людей в самые темные уголки Интернета» . Уолл Стрит Джорнал . ISSN 0099-9660 . Проверено 16 июня 2018 г.
- Нильссон, Нильс (1983). «Искусственный интеллект готовится к 2001 году» (PDF) . Журнал ИИ . 1 (1). Архивировано (PDF) из оригинала 17 августа 2020 г. Проверено 22 августа 2020 г. Послание президента Ассоциации содействия развитию искусственного интеллекта .
- NRC (Национальный исследовательский совет США) (1999). «Развития искусственного интеллекта». Финансирование революции: государственная поддержка компьютерных исследований . Национальная Академия Пресс.
- Омохундро, Стив (2008). Природа самосовершенствующегося искусственного интеллекта . представлен и распространен на саммите Singularity Summit 2007, Сан-Франциско, Калифорния.
- Удейер, П.Ю. (2010). «О влиянии робототехники на поведенческие и когнитивные науки: от навигации насекомых до когнитивного развития человека» (PDF) . Транзакции IEEE по автономному умственному развитию . 2 (1): 2–16. дои : 10.1109/тамд.2009.2039057 . S2CID 6362217 . Архивировано (PDF) из оригинала 3 октября 2018 г. Проверено 4 июня 2013 г.
- Пенначин, К.; Герцель, Б. (2007). «Современные подходы к общему искусственному интеллекту». Общий искусственный интеллект . Когнитивные технологии. Берлин, Гейдельберг: Springer. стр. 1–30. дои : 10.1007/978-3-540-68677-4_1 . ISBN 978-3-540-23733-4 .
- Пинкер, Стивен (2007) [1994], Языковой инстинкт , Многолетняя современная классика, Харпер, ISBN 978-0-06-133646-1
- Пория, Суджанья; Камбрия, Эрик; Баджпай, Раджив; Хусейн, Амир (сентябрь 2017 г.). «Обзор аффективных вычислений: от унимодального анализа к мультимодальному слиянию» . Информационный синтез . 37 : 98–125. дои : 10.1016/j.inffus.2017.02.003 . hdl : 1893/25490 . S2CID 205433041 . Архивировано из оригинала 23 марта 2023 года . Проверено 27 апреля 2021 г.
- Роулинсон, Кевин (29 января 2015 г.). «Билл Гейтс из Microsoft настаивает на том, что ИИ представляет собой угрозу» . Новости Би-би-си . Архивировано из оригинала 29 января 2015 года . Проверено 30 января 2015 г.
- Рейснер, Алекс (19 августа 2023 г.), «Раскрыто: авторы, чьи пиратские книги служат основой для генеративного искусственного интеллекта» , The Atlantic
- Робертс, Джейкоб (2016). «Мыслящие машины: поиск искусственного интеллекта» . Дистилляции . Том. 2, нет. 2. стр. 14–23. Архивировано из оригинала 19 августа 2018 года . Проверено 20 марта 2018 г.
- Робицки, Дэн (5 сентября 2018 г.). «Пять экспертов рассказали, что их больше всего пугает в ИИ» . Архивировано из оригинала 8 декабря 2019 года . Проверено 8 декабря 2019 г.
- «Роботы могут требовать законных прав» . Новости Би-би-си . 21 декабря 2006 г. Архивировано из оригинала 15 октября 2019 г. . Проверено 3 февраля 2011 г.
- Роуз, Стив (11 июля 2023 г.). «ИИ Утопия или антиутопия?». Еженедельник Гардиан . стр. 42–43.
- Рассел, Стюарт (2019). Совместимость с человеком: искусственный интеллект и проблема управления . США: Викинг. ISBN 978-0-525-55861-3 . OCLC 1083694322 .
- Сайнато, Майкл (19 августа 2015 г.). «Стивен Хокинг, Илон Маск и Билл Гейтс предупреждают об искусственном интеллекте» . Наблюдатель . Архивировано из оригинала 30 октября 2015 года . Проверено 30 октября 2015 г.
- Сэмпл, Ян (5 ноября 2017 г.). «Компьютер говорит нет: почему так важно сделать ИИ справедливыми, подотчетными и прозрачными» . Хранитель . Проверено 30 января 2018 г.
- Ротман, Денис (7 октября 2020 г.). «Изучение объяснений LIME и стоящей за ним математики» . Кодемоция . Проверено 25 ноября 2023 г.
- Скасселлати, Брайан (2002). «Теория разума робота-гуманоида». Автономные роботы . 12 (1): 13–24. дои : 10.1023/А:1013298507114 . S2CID 1979315 .
- Шмидхубер, Дж. (2015). «Глубокое обучение в нейронных сетях: обзор». Нейронные сети . 61 : 85–117. arXiv : 1404.7828 . дои : 10.1016/j.neunet.2014.09.003 . ПМИД 25462637 . S2CID 11715509 .
- Шмидхубер, Юрген (2022). «Аннотированная история современного искусственного интеллекта и глубокого обучения» .
- Шульц, Ханнес; Бенке, Свен (1 ноября 2012 г.). «Глубокое обучение» . ИИ – Искусственный интеллект . 26 (4): 357–363. дои : 10.1007/s13218-012-0198-z . ISSN 1610-1987 . S2CID 220523562 .
- Сирл, Джон (1980). «Разум, мозг и программы» (PDF) . Поведенческие и мозговые науки . 3 (3): 417–457. дои : 10.1017/S0140525X00005756 . S2CID 55303721 . Архивировано (PDF) из оригинала 17 марта 2019 года . Проверено 22 августа 2020 г.
- Сирл, Джон (1999). Разум, язык и общество . Нью-Йорк: Основные книги. ISBN 978-0-465-04521-1 . OCLC 231867665 . Архивировано из оригинала 26 июля 2020 года . Проверено 22 августа 2020 г.
- Саймон, Х.А. (1965), Форма автоматизации для мужчин и менеджмента , Нью-Йорк: Harper & Row.
- Симоните, Том (31 марта 2016 г.). «Как Google планирует решить проблему искусственного интеллекта» . Обзор технологий Массачусетского технологического института .
- Смит, Крейг С. (15 марта 2023 г.). «Создатель ChatGPT-4 Илья Суцкевер об ИИ-галлюцинациях и ИИ-демократии» . Форбс . Проверено 25 декабря 2023 г.
- Смоляр, Стивен В.; Чжан, Хунцзян (1994). «Индексирование и поиск видео на основе контента». IEEE Мультимедиа . 1 (2): 62–72. дои : 10.1109/93.311653 . S2CID 32710913 .
- Соломонов, Рэй (1956). Машина индуктивного вывода (PDF) . Летняя исследовательская конференция в Дартмуте по искусственному интеллекту. Архивировано (PDF) из оригинала 26 апреля 2011 г. Проверено 22 марта 2011 г. - через std.com, сканированная копия оригинала в формате PDF. Позже опубликовано как
Соломонов, Рэй (1957). «Машина индуктивного вывода». Протокол съезда IRE . Том. Раздел по теории информации, часть 2. С. 56–62. - Стэнфордский университет (2023 г.). «Отчет об индексе искусственного интеллекта за 2023 год / Глава 6: Политика и управление» (PDF) . Индекс ИИ. Архивировано (PDF) из оригинала 19 июня 2023 года . Проверено 19 июня 2023 г.
- Тао, Цзяньхуа; Тан, Тьениу (2005). Аффективные вычисления и интеллектуальное взаимодействие . Аффективные вычисления: обзор. Конспекты лекций по информатике. Том. 3784. Спрингер. стр. 981–995. дои : 10.1007/11573548 . ISBN 978-3-540-29621-8 .
- Тейлор, Джош; Херн, Алекс (2 мая 2023 г.). « Крестный отец искусственного интеллекта» Джеффри Хинтон покидает Google и предупреждает об опасности дезинформации» . Хранитель .
- Томпсон, Дерек (23 января 2014 г.). «Какую работу займут роботы?» . Атлантика . Архивировано из оригинала 24 апреля 2018 года . Проверено 24 апреля 2018 г.
- Тро, Эллен (1993). Робототехника: союз компьютеров и машин . Нью-Йорк: факты в архиве. ISBN 978-0-8160-2628-9 . Архивировано из оригинала 26 июля 2020 года . Проверено 22 августа 2020 г.
- Тэйвс, Роб (3 сентября 2023 г.). «Трансформеры произвели революцию в области искусственного интеллекта. Что их заменит?» . Форбс . Проверено 8 декабря 2023 г.
- Тьюринг, Алан (октябрь 1950 г.), «Вычислительная техника и интеллект», Mind , LIX (236): 433–460, doi : 10.1093/mind/LIX.236.433 , ISSN 0026-4423
- Доклад ЮНЕСКО по науке: гонка со временем ради более разумного развития . Париж: ЮНЕСКО. 2021. ISBN 978-92-3-100450-6 . Архивировано из оригинала 18 июня 2022 года . Проверено 18 сентября 2021 г.
- Урбина, Фабио; Ленцос, Филиппа; Инверницци, Седрик; Экинс, Шон (7 марта 2022 г.). «Двойное использование открытия лекарств с помощью искусственного интеллекта» . Природный машинный интеллект . 4 (3): 189–191. дои : 10.1038/s42256-022-00465-9 . ПМЦ 9544280 . ПМИД 36211133 . S2CID 247302391 .
- Вэлэнс, Христос (30 мая 2023 г.). «Искусственный интеллект может привести к вымиранию, - предупреждают эксперты» . Новости Би-би-си . Архивировано из оригинала 17 июня 2023 года . Проверено 18 июня 2023 г.
- Валинский, Джордан (11 апреля 2019 г.), «Сообщается, что Amazon нанимает тысячи людей для прослушивания ваших разговоров с Alexa» , CNN.com
- Верма, Югеш (25 декабря 2021 г.). «Полное руководство по SHAP – аддитивные пояснения SHAPley для практиков» . Журнал Analytics India Magazine . Проверено 25 ноября 2023 г.
- Винсент, Джеймс (7 ноября 2019 г.). «OpenAI опубликовала ИИ, генерирующий текст, который, по ее словам, слишком опасен для распространения» . Грань . Архивировано из оригинала 11 июня 2020 года . Проверено 11 июня 2020 г.
- Винсент, Джеймс (15 ноября 2022 г.). «Страшная правда об авторских правах на ИИ заключается в том, что никто не знает, что будет дальше» . Грань . Архивировано из оригинала 19 июня 2023 года . Проверено 19 июня 2023 г.
- Винсент, Джеймс (3 апреля 2023 г.). «ИИ вступает в эпоху корпоративного контроля» . Грань . Архивировано из оригинала 19 июня 2023 года . Проверено 19 июня 2023 г.
- Виндж, Вернор (1993). «Грядущая технологическая сингулярность: как выжить в постчеловеческую эпоху» . Видение 21: Междисциплинарная наука и инженерия в эпоху киберпространства : 11. Бибкод : 1993vise.nasa...11V . Архивировано из оригинала 1 января 2007 года . Проверено 14 ноября 2011 г.
- Уодделл, Каве (2018). «Чат-боты вошли в Зловещую долину» . Атлантика . Архивировано из оригинала 24 апреля 2018 года . Проверено 24 апреля 2018 г.
- Уоллах, Венделл (2010). Моральные машины . Издательство Оксфордского университета.
- Уэйсон, ПК ; Шапиро, Д. (1966). «Рассуждение» . В Фоссе, Б.М. (ред.). Новые горизонты психологии . Хармондсворт: Пингвин. Архивировано из оригинала 26 июля 2020 года . Проверено 18 ноября 2019 г.
- Венг, Дж.; Макклелланд; Пентленд, А.; Спорнс, О.; Стокман, И.; Сур, М.; Телен, Э. (2001). «Автономное умственное развитие роботов и животных» (PDF) . Наука . 291 (5504): 599–600. дои : 10.1126/science.291.5504.599 . ПМИД 11229402 . S2CID 54131797 . Архивировано (PDF) из оригинала 4 сентября 2013 года . Проверено 4 июня 2013 г. - через msu.edu.
- «Что такое «нечеткая логика»? Существуют ли компьютеры, которые по своей сути являются нечеткими и не применяют обычную двоичную логику?» . Научный американец . 21 октября 1999 г. Архивировано из оригинала 6 мая 2018 г. . Проверено 5 мая 2018 г.
- Уильямс, Рианнон (28 июня 2023 г.), «Люди, возможно, с большей вероятностью поверят дезинформации, создаваемой ИИ» , MIT Technology Review
- Вирц, Бернд В.; Вейерер, Ян К.; Гейер, Кэролин (24 июля 2018 г.). «Искусственный интеллект и государственный сектор – применение и проблемы» . Международный журнал государственного управления . 42 (7): 596–615. дои : 10.1080/01900692.2018.1498103 . ISSN 0190-0692 . S2CID 158829602 . Архивировано из оригинала 18 августа 2020 года . Проверено 22 августа 2020 г.
- Вонг, Маттео (19 мая 2023 г.), «ChatGPT уже устарел» , The Atlantic
- Юдковски, Э. (2008), «Искусственный интеллект как положительный и отрицательный фактор глобального риска» (PDF) , Глобальные катастрофические риски , Oxford University Press, 2008, Бибкод : 2008gcr..book..303Y , заархивировано (PDF) из оригинал 19 октября 2013 г. , дата обращения 24 сентября 2021 г.
Дальнейшее чтение
- Ашиш Васвани, Ноам Шазир, Ники Пармар и др. «Внимание — это все, что вам нужно». Достижения в области нейронных систем обработки информации 30 (2017). Основополагающая статья о трансформаторах .
- Автор, Дэвид Х. , «Почему до сих пор так много рабочих мест? История и будущее автоматизации рабочих мест» (2015) 29 (3) Journal of Economic Perspectives 3.
- Боден, Маргарет , Разум как машина , Oxford University Press , 2006.
- Кукиер, Кеннет , «Готовы к роботам? Как думать о будущем искусственного интеллекта», Foreign Relations , vol. 98, нет. 4 (июль/август 2019 г.), стр. 192–98. Джордж Дайсон , историк вычислительной техники, пишет (в так называемом «Законе Дайсона»), что «Любая система, достаточно простая, чтобы ее можно было понять, не будет достаточно сложной, чтобы вести себя разумно, в то время как любая система, достаточно сложная, чтобы вести себя разумно, будет слишком сложной для того, чтобы ее можно было понять». понимать." (стр. 197.) Ученый-компьютерщик Алекс Пентланд пишет: «Современные машинного обучения ИИ алгоритмы по своей сути совершенно глупы. Они работают, но работают с помощью грубой силы». (стр. 198.)
- Гертнер, Джон. (2023) «Момент истины Википедии: может ли онлайн-энциклопедия помочь научить чат-ботов с искусственным интеллектом правильно излагать факты, не разрушая при этом себя?» Журнал New York Times (18 июля 2023 г.) онлайн
- Глейк, Джеймс , «Судьба свободы воли» (обзор книги Кевина Дж. Митчелла , «Свободные агенты: как эволюция дала нам свободу воли» , Princeton University Press, 2023, 333 стр.), The New York Review of Books , vol. LXXI, нет. 1 (18 января 2024 г.), стр. 27–28, 30. « Свобода действий – это то, что отличает нас от машин. Для биологических существ разум и цель возникают в результате действий в мире и переживания последствий. Искусственный интеллект – бестелесный, чужой крови , пот и слезы – не имеют для этого повода». (стр. 30.)
- Хьюз-Каслберри, Кенна , «Загадка тайны убийства: литературная загадка « Челюсть Каина» , которая десятилетиями ставила людей в тупик, раскрывает ограничения алгоритмов обработки естественного языка», Scientific American , vol. 329, нет. 4 (ноябрь 2023 г.), стр. 81–82. «Это соревнование по расследованию убийств показало, что, хотя модели НЛП ( обработки естественного языка ) способны на невероятные подвиги, их способности очень сильно ограничены объемом контекста , который они получают. Это [...] может вызвать [трудности] для исследователей». которые надеются использовать их для таких задач, как анализ древних языков . В некоторых случаях существует мало исторических записей о давно исчезнувших цивилизациях , которые могли бы служить учебными данными для этой цели». (стр. 82.)
- Иммервар, Дэниел , «Ваши лживые глаза: люди теперь используют ИИ для создания фальшивых видеороликов, неотличимых от настоящих. Насколько это важно?», The New Yorker , 20 ноября 2023 г., стр. 54–59. «Если под « дипфейками » мы подразумеваем реалистичные видеоролики, созданные с использованием искусственного интеллекта, которые на самом деле обманывают людей, то их почти не существует. Фейки не являются глубокими, а глубины не являются фальшивыми. [...] Видео, созданные ИИ, не являются , вообще, работающие в наших СМИ как фальшивые доказательства. Их роль больше напоминает карикатуры , особенно похабные». (стр. 59.)
- Джонстон, Джон (2008) Очарование машинной жизни: кибернетика, искусственная жизнь и новый искусственный интеллект , MIT Press.
- Джампер, Джон; Эванс, Ричард; Притцель, Александр; и др. (26 августа 2021 г.). «Высокоточное предсказание структуры белка с помощью AlphaFold» . Природа . 596 (7873): 583–589. Бибкод : 2021Natur.596..583J . дои : 10.1038/s41586-021-03819-2 . ПМЦ 8371605 . PMID 34265844 . S2CID 235959867 .
- ЛеКун, Янн; Бенджио, Йошуа; Хинтон, Джеффри (28 мая 2015 г.). «Глубокое обучение» . Природа . 521 (7553): 436–444. Бибкод : 2015Natur.521..436L . дои : 10.1038/nature14539 . ПМИД 26017442 . S2CID 3074096 . Архивировано из оригинала 5 июня 2023 года . Проверено 19 июня 2023 г.
- Маркус, Гэри , «Искусственная уверенность: даже новейшие и самые модные системы общего искусственного интеллекта зашли в тупик из-за одних и тех же старых проблем», Scientific American , vol. 327, нет. 4 (октябрь 2022 г.), стр. 42–45.
- Митчелл, Мелани (2019). Искусственный интеллект: руководство для думающего человека . Нью-Йорк: Фаррар, Штраус и Жиру. ISBN 9780374257835 .
- Мних, Владимир; Кавукчуоглу, Корай; Сильвер, Дэвид; и др. (26 февраля 2015 г.). «Контроль на человеческом уровне посредством глубокого обучения с подкреплением» . Природа . 518 (7540): 529–533. Бибкод : 2015Natur.518..529M . дои : 10.1038/nature14236 . ПМИД 25719670 . S2CID 205242740 . Архивировано из оригинала 19 июня 2023 года . Проверено 19 июня 2023 г. Представлена DQN , которая обеспечивала производительность на уровне человека в некоторых играх Atari.
- Пресс, Эяль , «Перед их лицами: заставляет ли технология распознавания лиц игнорировать противоречивые доказательства?», The New Yorker , 20 ноября 2023 г., стр. 20–26.
- Ройвайнен, Эка , «IQ ИИ: ChatGPT успешно прошел [стандартный тест интеллекта], но показал, что интеллект нельзя измерить только с помощью IQ », Scientific American , vol. 329, нет. 1 (июль/август 2023 г.), с. 7. «Несмотря на свой высокий IQ, ChatGPT не справляется с задачами, которые требуют реального человеческого мышления или понимания физического и социального мира... ChatGPT, похоже, неспособен рассуждать логически и пытается полагаться на свою обширную базу данных... полученных фактов. из онлайн-текстов».
- Шарре, Пол, «Приложения-убийцы: настоящие опасности гонки вооружений ИИ», Foreignaffs , vol. 98, нет. 3 (май/июнь 2019 г.), стр. 135–44. «Сегодняшние технологии искусственного интеллекта мощны, но ненадежны. Системы, основанные на правилах, не могут справиться с обстоятельствами, которые их программисты не предусмотрели. Системы обучения ограничены данными, на которых они обучались. Сбои искусственного интеллекта уже привели к трагедиям. хотя в некоторых обстоятельствах они работают хорошо, без предупреждения врезаются в грузовики, бетонные барьеры и припаркованные автомобили. В неправильной ситуации системы ИИ мгновенно превращаются из сверхумных в сверхтупые, когда враг пытается манипулировать ИИ и взломать его. системы, риски еще больше». (стр. 140.)
- Серенко, Александр; Майкл Дохан (2011). «Сравнение методов рейтингования журналов, основанных на экспертном опросе и цитируемости: пример из области искусственного интеллекта» (PDF) . Журнал информаметрики . 5 (4): 629–49. дои : 10.1016/j.joi.2011.06.002 . Архивировано (PDF) из оригинала 4 октября 2013 года . Проверено 12 сентября 2013 г.
- Сильвер, Дэвид; Хуанг, Аджа; Мэддисон, Крис Дж.; и др. (28 января 2016 г.). «Освоение игры Го с помощью глубоких нейронных сетей и поиска по дереву» . Природа . 529 (7587): 484–489. Бибкод : 2016Natur.529..484S . дои : 10.1038/nature16961 . ПМИД 26819042 . S2CID 515925 . Архивировано из оригинала 18 июня 2023 года . Проверено 19 июня 2023 г.
- Технический документ: Искусственный интеллект: европейский подход к совершенству и доверию (PDF) . Брюссель: Европейская комиссия. 2020. Архивировано (PDF) из оригинала 20 февраля 2020 года . Проверено 20 февраля 2020 г.
Внешние ссылки
- "Искусственный интеллект" . Интернет-энциклопедия философии .
- Томасон, Ричмонд. «Логика и искусственный интеллект» . В Залте, Эдвард Н. (ред.). Стэнфордская энциклопедия философии .
- Искусственный интеллект . Дискуссия на BBC Radio 4 с Джоном Агаром, Элисон Адам и Игорем Александром ( «В наше время» , 8 декабря 2005 г.).
- Тераностика и искусственный интеллект – новое достижение в прецизионной медицине рака