Jump to content

АИ@50

АИ@50
Принимающая страна По всему миру

AI@50 , официально известная как « Дартмутская конференция по искусственному интеллекту: следующие пятьдесят лет » (13–15 июля 2006 г.), была конференцией, организованной Джеймсом Муром в ознаменование 50-летия Дартмутского семинара , который фактически положил начало истории искусственный интеллект . Присутствовали пятеро из первых десяти участников: Марвин Мински , Рэй Соломонов , Оливер Селфридж , Тренчард Мор и Джон Маккарти . [1]

, спонсируемый Дартмутским колледжем , General Electric и Фондом Фредерика Уитмора Грант в размере 200 000 долларов от Агентства перспективных исследовательских проектов Министерства обороны (DARPA) , предусматривал подготовку отчета о ходе разбирательства, который:

  • Проанализируйте прогресс в решении первоначальных задач ИИ за первые 50 лет и оцените, были ли проблемы «проще» или «сложнее», чем первоначально предполагалось, и почему.
  • Задокументируйте, что, по мнению участников AI@50, является основными проблемами исследований и разработок, стоящих перед этой областью в течение следующих 50 лет, и определите, какие прорывы потребуются для решения этих проблем.
  • Сопоставьте эти проблемы и открытия с разработками и тенденциями в других областях, таких как теория управления, обработка сигналов, теория информации, статистика и теория оптимизации. [2]

Итоговый доклад директора конференции Джеймса Мура был опубликован в журнале AI Magazine . [3]

[ редактировать ]

ИИ: прошлое, настоящее, будущее

[ редактировать ]

Будущая модель мышления

[ редактировать ]

Будущее сетевых моделей

[ редактировать ]
[ редактировать ]

Будущее искусственного интеллекта

[ редактировать ]

Будущее видения

[ редактировать ]
  • Эрик Гримсон , «Интеллектуальный анализ медицинских изображений: компьютерная хирургия и мониторинг заболеваний»
  • Такео Канаде , Видение искусственного интеллекта: прогресс и отсутствие прогресса
  • Терри Сейновски , Критика чистого видения

Будущее рассуждения

[ редактировать ]

Будущее языка и познания

[ редактировать ]
  • Тренчард Мор Рождение теории массивов и Ниала
  • Евгений Чарняк , Почему обработка естественного языка теперь является статистической обработкой естественного языка
  • Пэт Лэнгли , «Разумное поведение людей и машин» [7]

Будущее будущего

[ редактировать ]

ИИ и игры

[ редактировать ]

Будущее взаимодействие с интеллектуальными машинами

[ редактировать ]

Избранные представленные статьи: Будущие стратегии в области искусственного интеллекта

[ редактировать ]

Избранные представленные статьи: Будущие возможности искусственного интеллекта

[ редактировать ]
  1. ^ Нильссон, Нильс Дж. (2009). В поисках искусственного интеллекта . Издательство Кембриджского университета. ISBN  978-0-521-12293-1 . стр. 80-81
  2. ^ Кнапп, Сьюзен (6 июля 2006 г.). «Дартмут получает грант от DARPA на поддержку конференции AI@50» . Управление по связям с общественностью Дартмутского колледжа . Архивировано из оригинала 7 июня 2010 г. Проверено 11 июня 2010 г.
  3. ^ Мур, Джеймс (2006). «Конференция Дартмутского колледжа по искусственному интеллекту: следующие пятьдесят лет» (PDF) . Журнал ИИ . 27 (4): 87–91. ISSN   0738-4602 .
  4. ^ Кнапп, Сьюзен (24 июля 2006 г.). «Искусственный интеллект: прошлое, настоящее и будущее» . Вокс Дартмута . Архивировано из оригинала 25 октября 2020 г. Проверено 11 июня 2010 г.
  5. ^ Рассел, Стюарт (12 июля 2006 г.). «Подход современного ИИ» . Архивировано из оригинала (PPT) 24 марта 2012 г. Проверено 11 июня 2010 г.
  6. ^ Соломонов, Рэй Дж. (2006). «Машинное обучение — прошлое и будущее» (PDF) . Проверено 25 июля 2008 г.
  7. ^ Лэнгли, Пэт (2006). «Интеллектуальное поведение людей и машин» (PDF) . Проверено 25 июля 2008 г.
  8. ^ Курцвейл, Рэй (14 июля 2006 г.). «Почему мы можем быть уверены в возможностях теста Тьюринга в течение четверти века» . Архивировано из оригинала 10 августа 2006 года . Проверено 25 июля 2006 г.
  9. ^ Холл, Дж. Стурс (2007). «Самосовершенствование ИИ: анализ». Разум и машины . 17 (3): 249–259. дои : 10.1007/s11023-007-9065-3 . S2CID   15347250 . Самосовершенствование было одним из аспектов ИИ, предложенных для изучения на Дартмутской конференции 1956 года. Тьюринг предложил «детскую машину», которую можно было бы обучить человеческим способом, чтобы достичь интеллекта взрослого человеческого уровня. В последнее время утверждение о том, что система ИИ может быть построена так, чтобы учиться и совершенствоваться бесконечно, приобрело ярлык заблуждения начальной загрузки. Попытки искусственного интеллекта реализовать такую ​​систему на протяжении полувека неизменно терпели неудачу. Технологические оптимисты, однако, утверждают, что такая система возможна, создавая, если она будет реализована, петлю обратной связи, которая приведет к быстрому экспоненциальному росту интеллекта. Мы рассмотрим аргументы обеих позиций и сделаем некоторые выводы. Самоархив. Архивировано 15 февраля 2010 г. на Wayback Machine.
  10. ^ Брингсйорд, Сельмер (декабрь 2008 г.). «Манифест логика: пусть, наконец, логический ИИ станет полем для самого себя». Журнал прикладной логики . 6 (4): 502–525. дои : 10.1016/j.jal.2008.09.001 . Эта статья представляет собой устойчивый аргумент в пользу того, что основанный на логике ИИ должен стать самодостаточной областью, полностью отделенной от парадигм, которые в настоящее время все еще входят в «зонтик» ИИ, — таких парадигм, как коннекционизм и подход непрерывных систем. Статья включает в себя автономное изложение логического ИИ, а также опровержения ряда возражений, которые неизбежно будут выдвинуты против выраженной здесь декларации независимости. Самоархив
  11. ^ Мюллер, Винсент К. (март 2007 г.). «Есть ли будущее у искусственного интеллекта без репрезентации?» . Разум и машины . 17 (1): 101–115. дои : 10.1007/s11023-007-9067-1 . S2CID   14355608 . В этой статье исследуются перспективы предложения Родни Брукса об искусственном интеллекте без представительства. Оказывается, что предположительно характерные черты «нового ИИ» (воплощение, ситуационность, отсутствие рассуждений и отсутствие репрезентации) присутствуют и в традиционных системах: «Новый ИИ» подобен старому ИИ. Предложение Брукса сводится к архитектурному отказу от централизованного управления интеллектуальными агентами, что, однако, оказывается решающим. Некоторые из последних достижений когнитивной науки предполагают, что нам было бы полезно избавиться от образа интеллектуальных агентов как центральных процессоров представления. Если этот сдвиг парадигмы будет достигнут, предложение Брукса о познании без репрезентации окажется многообещающим для полноценных интеллектуальных агентов, но не для сознательных агентов. Самоархив. Архивировано 17 ноября 2009 г. на Wayback Machine.
  12. ^ Ториссон, Кристинн Р. (март 2007 г.). «Интегрированные системы искусственного интеллекта». Разум и машины . 17 (1): 11–25. дои : 10.1007/s11023-007-9055-5 . S2CID   21891058 . Широкий спектр способностей, демонстрируемых людьми и животными, достигается за счет большого набора разнородных, тесно интегрированных когнитивных механизмов. Чтобы приблизить искусственные системы к такому универсальному интеллекту, мы не можем избежать репликации некоторого подмножества — вполне возможно, значительной части — этого большого набора. Прогресс в этом направлении требует более серьезного отношения к системной интеграции как к фундаментальной исследовательской проблеме. В этой статье я утверждаю, что интеллект необходимо изучать целостно. Я представляю ключевые проблемы, которые необходимо решить в области интеграции, и предлагаю решения для ускорения прогресса в направлении более мощных интегрированных систем искусственного интеллекта, включая (а) инструменты для построения больших и сложных архитектур, (б) методологию проектирования для создания системы искусственного интеллекта в реальном времени и (c) методы облегчения совместного использования кода на уровне сообщества.
  13. ^ Стейнхарт, Эрик (октябрь 2007 г.). «Выживание как цифровой призрак» . Разум и машины . 17 (3): 261–271. дои : 10.1007/s11023-007-9068-0 . S2CID   2741620 . Выжить после смерти можно в различного рода артефактах. Выжить можно с помощью дневников, фотографий, звукозаписей и фильмов. Но эти артефакты фиксируют лишь поверхностные черты вас самих. Мы уже близки к созданию программ, частично и приблизительно копирующих всю жизнь человека (за счет хранения его воспоминаний и дублирования личности). Цифровой призрак — это программа с искусственным интеллектом, которая знает все о вашей жизни. Это анимированная автобиография. Он повторяет ваши модели убеждений и желаний. Выжить после смерти можно в цифровом призраке. Мы обсуждаем серию цифровых призраков в течение следующих 50 лет. С течением времени и развитием технологий они становятся все более точными копиями жизни их первоначальных авторов.
  14. ^ Шмидт, Колин Т.А. (октябрь 2007 г.). «Дети, роботы и... родительская роль». Разум и машины . 17 (3): 273–286. дои : 10.1007/s11023-007-9069-z . S2CID   6578298 . Смысл этой статьи в том, что многие проницательные аналитики работ в области интеллектуальных вычислений и робототехники не видят главного в разработке приложений, а именно выражения их конечной цели. С другой стороны, они не могут изложить это так, чтобы это было удобно для менее информированной общественности. Автор не претендует на то, чтобы это исправить. Вместо этого дальновидное исследование предложило парам учиться и работать с компьютерами в других смежных областях как часть более широкого спектра, чтобы полностью имитировать людей по их воплощенному образу. Впервые социальные роли, приписываемые производимым техническим объектам, подвергаются сомнению, причем с юмористической иллюстрацией.
  15. ^ Андерсон, Майкл; Сьюзан Ли Андерсон (март 2007 г.). «Состояние машинной этики: отчет симпозиума AAAI». Разум и машины . 17 (1): 1–10. дои : 10.1007/s11023-007-9053-7 . S2CID   33329318 . Этот документ представляет собой краткое изложение и оценку работы, представленной на осеннем симпозиуме AAAI 2005 года по машинной этике, который собрал участников из области компьютерных наук и философии, чтобы прояснить природу этой новой возникающей области и обсудить различные подходы, которые можно было бы использовать. к реализации конечной цели создания этической машины.
  16. ^ Гуарини, Марчелло (март 2007 г.). «Расчеты, последовательность и этические рассуждения». Разум и машины . 17 (1): 27–46. дои : 10.1007/s11023-007-9056-4 . S2CID   7794353 . Теории морального и, в более общем смысле, практического рассуждения иногда опираются на понятие связности. Достойно восхищения то, что Пол Тагард попытался дать детальное в вычислительном отношении описание того вида последовательности, который присутствует в практических рассуждениях, утверждая, что это поможет преодолеть проблемы фундаменталистских подходов к этике. Приведенные здесь аргументы опровергают предполагаемую роль последовательности в практических рассуждениях, поддержанную Тагардом. Несмотря на то, что из вышеизложенного можно извлечь некоторые общие уроки, не предпринимается никаких попыток возражать против всех форм согласованности во всех контекстах. Полезность компьютерного моделирования также не подвергается сомнению. Дело в том, что связность не может быть столь полезной для понимания моральных рассуждений, как могут думать последователи. Этот результат имеет явные последствия для будущего машинной этики, недавно возникшей области ИИ.
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 0d487498119381e0bee9499d547d9270__1717259280
URL1:https://arc.ask3.ru/arc/aa/0d/70/0d487498119381e0bee9499d547d9270.html
Заголовок, (Title) документа по адресу, URL1:
AI@50 - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)