Алгоритмическая прозрачность
Алгоритмическая прозрачность — это принцип, согласно которому факторы, влияющие на решения, принимаемые алгоритмами, должны быть видимы или прозрачны для людей, которые используют, регулируют и подвергаются воздействию систем, использующих эти алгоритмы. Хотя эта фраза была придумана в 2016 году Николасом Диакопулосом и Майклом Колиской о роли алгоритмов в определении содержания услуг цифровой журналистики, [1] основополагающий принцип восходит к 1970-м годам, когда появились автоматизированные системы оценки потребительских кредитов.
Фразы «алгоритмическая прозрачность» и «алгоритмическая подотчетность». [2] иногда используются как синонимы – особенно потому, что они были придуманы одними и теми же людьми – но они имеют слегка разные значения. В частности, «алгоритмическая прозрачность» гласит, что входные данные для алгоритма и само его использование должны быть известны, но они не обязательно должны быть справедливыми. « Алгоритмическая ответственность » подразумевает, что организации, использующие алгоритмы, должны нести ответственность за решения, принимаемые этими алгоритмами, даже если решения принимаются машиной, а не человеком. [3]
Текущие исследования прозрачности алгоритмов интересуются как социальными эффектами доступа к удаленным сервисам, использующим алгоритмы. [4] а также математические и компьютерные подходы, которые можно использовать для достижения алгоритмической прозрачности. [5] В Соединенных Штатах Бюро по защите прав потребителей Федеральной торговой комиссии изучает, как алгоритмы используются потребителями, проводя собственные исследования прозрачности алгоритмов и финансируя внешние исследования. [6] В Европейском Союзе законы о защите данных, вступившие в силу в мае 2018 года, включают «право на объяснение» решений, принимаемых алгоритмами, хотя неясно, что это означает. [7] Кроме того, Европейский Союз основал Европейский центр алгоритмической прозрачности (ECAT). [8]
См. также [ править ]
- Черный ящик
- Объяснимый ИИ
- Регулирование алгоритмов
- Реверс-инжиниринг
- Право на объяснение
- Алгоритмическая ответственность
Ссылки [ править ]
- ^ Николас Диакопулос и Майкл Колиска (2016): Алгоритмическая прозрачность в средствах массовой информации, Цифровая журналистика, дои : 10.1080/21670811.2016.1208053
- ^ Диакопулос, Николас (2015). «Алгоритмическая ответственность: журналистское исследование вычислительных властных структур» . Цифровая журналистика . 3 (3): 398–415. дои : 10.1080/21670811.2014.976411 . S2CID 42357142 .
- ^ Дики, Меган Роуз (30 апреля 2017 г.). «Алгоритмическая ответственность» . ТехКранч . Проверено 4 сентября 2017 г.
- ^ «Практикум по прозрачности данных и алгоритмов» . 2015 . Проверено 4 января 2017 г.
- ^ «Справедливость, подотчетность и прозрачность в машинном обучении» . 2015 . Проверено 29 мая 2017 г.
- ^ Нойес, Кэтрин (9 апреля 2015 г.). «ФТК обеспокоена алгоритмической прозрачностью, и вы тоже должны быть обеспокоены» . ПКМир . Проверено 4 сентября 2017 г.
- ^ «Ложные показания» (PDF) . Природа . 557 (7707): 612. 31 мая 2018 г.
- ^ "О - Европейская Комиссия" .