Jump to content

Рашида Ричардсон

Рашида Ричардсон
Ричардсон в 2018 году
Род занятий Ученый, доцент, адвокат
Академическое образование
Образование Уэслианский университет (бакалавр)
Альма-матер Юридический факультет Северо-Восточного университета (JD)
Академическая работа
Дисциплина Законодательная и технологическая политика
Веб-сайт https://www.rashidarichardson.com/

Рашида Ричардсон — приглашенный научный сотрудник юридической школы Рутгерса и Института информационной политики и права Рутгерса. [ 1 ] и адвокат-консультант Федеральной торговой комиссии . Она также является доцентом права и политологии на юридическом факультете Северо-Восточного университета и Северо-Восточного университета на факультете политологии в Колледже социальных и гуманитарных наук.

Ричардсон ранее был директором по политическим исследованиям в AI Now Institute . [ 2 ] где она разрабатывала, реализовывала и координировала исследовательские стратегии и инициативы в области законодательства, политики и гражданских прав. [ 3 ] За время своей карьеры адвоката, исследователя и ученого Ричардсон занималась научной коммуникацией и общественной защитой.

Образование

[ редактировать ]

Ричардсон получил степень бакалавра с отличием в Колледже социальных исследований Уэслианского университета и степень доктора права на юридическом факультете Северо-Восточного университета . Она была стажером у судьи Чарльза Р. Брейера из окружного суда США Северного округа Калифорнии, в юридической фирме Cowan, DeBeats, Авраам и Шеппард и в Обществе юридической помощи. [ 4 ]

До прихода в The AI ​​Now Institute Ричардсон работал советником по законодательным вопросам в Союзе гражданских свобод Нью-Йорка. [ 5 ] [ 6 ] и работал штатным юристом в Центре законодательства и политики в области ВИЧ. Ранее она работала в Facebook и HIP Investor в Сан-Франциско.

После получения старшей стипендии по цифровым инновациям и демократии в Немецком фонде Маршалла в июле 2021 года она стала старшим советником по политике в области данных и демократии в Управлении научно-технической политики . [ 7 ] [ 8 ] В июле 2021 года она также присоединилась к факультету Северо-Восточного права в качестве доцента права и политологии на юридическом факультете и на кафедре политологии Колледжа социальных и гуманитарных наук. [ 9 ] [ 8 ] В 2022 году она начала работать адвокатом-консультантом Федеральной торговой комиссии . [ 10 ]

В марте 2020 года она вошла в консультативный совет Информационного центра электронной конфиденциальности (EPIC) . [ 11 ] В марте 2021 года она присоединилась к совету директоров Lacuna Technologies, чтобы предоставлять рекомендации по вопросам справедливости и конфиденциальности данных. [ 12 ]

Пропаганда

[ редактировать ]

В 2018 году, будучи директором по политическим исследованиям AI Now Institute , Ричардсон подробно рассказал The Christian Science Monitor о влиянии и проблемах искусственного интеллекта, включая отсутствие прозрачности для общественности относительно того, как используется технология, и отсутствие технической экспертизы муниципалитетов относительно того, как работает технология и являются ли результаты предвзятыми или ошибочными. [ 13 ] Ричардсон обсуждал аналогичные опасения по поводу технологии распознавания лиц с NBC News в 2018 году. [ 14 ] и CBS News в 2020 году. [ 15 ] В 2019 году Ричардсон поговорил с Detroit Free Press о растущем использовании систем искусственного интеллекта правительствами Соединенных Штатов. [ 16 ] и распространила свои предупреждения на Канаду в разговоре с The Canadian Press . [ 17 ] В 2019 году Ричардсон говорил с Reuters об этике и искусственном интеллекте и выразил обеспокоенность по поводу приоритетов Amazon.com, Facebook, Microsoft и других. [ 18 ]

В 2019 году Ричардсон давал показания перед подкомитетом Сената США по коммуникациям, технологиям, инновациям и Интернету на слушаниях под названием «Оптимизация взаимодействия: понимание использования убедительных технологий на интернет-платформах». [ 19 ] [ 20 ] Заранее она сказала Politico : «Вмешательство правительства срочно необходимо для обеспечения защиты потребителей — особенно женщин, гендерных меньшинств и цветных сообществ — от дискриминации и предвзятости со стороны систем искусственного интеллекта». [ 21 ]

В 2019 году Карен Хао из MIT Technology Review рассказала об исследовании, проведенном Ричардсоном из AI Now Institute, которое, по словам Хао, «имеет серьезные последствия для эффективности прогнозирующей полицейской деятельности и других алгоритмов, используемых в системе уголовного правосудия». [ 22 ] В 2020 году Ричардсон говорил с Хао об использовании прогнозной аналитики применительно к защите детей. [ 23 ] Ричардсон также поговорила с Уиллом Дугласом Хевеном в MIT Technology Review по поводу статей, опубликованных в 2020 и 2021 годах, о проблемах алгоритмической предвзятости в программах прогнозирующей полицейской деятельности, включая ее точку зрения о том, что для решения этих проблем необходима «политическая воля». [ 24 ] [ 25 ]

В 2020 году, будучи приглашенным научным сотрудником юридической школы Рутгерса и старшим научным сотрудником Инициативы по цифровым инновациям и демократии в Немецком фонде Маршалла, Ричардсон рассказал The New York Times о сопротивлении со стороны американских полицейских департаментов обмену подробностями об используемых технологиях и ограниченных возможностях. регулирование технологии, заявив: «Единственное, что может улучшить этот черный ящик прогнозирующей полицейской деятельности, - это распространение законов о прозрачности». [ 26 ] [ 27 ]

В 2020 году Ричардсон был показан в документальном фильме «Социальная дилемма» режиссера Джеффа Орловски , распространяемом Netflix , в котором основное внимание уделяется социальным сетям и алгоритмическим манипуляциям. [ 28 ] [ 29 ]

В 2021 году она говорила с MIT Technology Review об алгоритмической предвзятости и проблемах, связанных с прогнозирования полицейской деятельности технологией . Ричардсон объяснил, что как данные об арестах, так и отчеты жертв могут искажать результаты, отметив, что что касается отчетов жертв, «если вы находитесь в сообществе с исторически коррумпированным или заведомо расово предвзятым полицейским управлением, это повлияет на то, как и будут ли люди сообщать о преступлениях». [ 30 ]

Избранные произведения

[ редактировать ]
  • Ричардсон Р. и Кан А.Ф. (5 февраля 2021 г.). «Государства терпят неудачу в сфере крупных технологий и конфиденциальности — Байден должен взять на себя инициативу». Холм . [ 27 ]
  • Ричардсон Р. и Как А. (11 сентября 2020 г.). «Пришло время подвести итоги об этой основополагающей части полицейских технологий». Сланец . [ 31 ]
  • Как А. и Ричардсон Р. (1 мая 2020 г.). «Политика искусственного интеллекта должна быть сосредоточена на воздействии и подотчетности». Центр инноваций в области международного управления . [ 32 ]
  • Ричардсон, Р. (15 декабря 2019 г.). «Выиграйте войну против алгоритмов: автоматизированные системы принятия решений берут на себя слишком большую часть государственного управления». Нью-Йорк Дейли Ньюс . [ 33 ]
  • Ричардсон, Р. (ред.) (4 декабря 2019 г.). «Противостояние черным ящикам: теневой отчет Целевой группы по автоматизированной системе принятия решений Нью-Йорка». Нью-Йорк: Институт AI Now . [ 34 ]
  • Ричардсон Р., Шульц Дж. М. и Саутерленд В. М. (2019). Судебные разбирательства по алгоритмам. Отчет США за 2019 год: Новые проблемы в использовании правительством алгоритмических систем принятия решений. Нью-Йорк: Институт AI Now. [ 35 ]
  • Ричардсон Р., Шульц Дж. М. и Кроуфорд К. (2019). Грязные данные, плохие прогнозы: как нарушения гражданских прав влияют на данные полиции, прогнозные полицейские системы и правосудие. Обзор права Нью-Йоркского университета . [ 36 ]
  • Ричардсон, Р. (12 декабря 2017 г.). Нью-Йорк борется с алгоритмической дискриминацией. NYCLU . [ 37 ]
  1. ^ «Закон Рутгерса приветствует приглашенного ученого Рашиду Ричардсон» . Закон Рутгерса . 07.08.2020 . Проверено 23 декабря 2020 г.
  2. ^ «Рашида Ричардсон» . Центр критической расы и цифровых исследований . Архивировано из оригинала 29 января 2022 года . Проверено 7 февраля 2021 г.
  3. ^ «Рашида Ричардсон | Центр Беркмана Кляйна» . cyber.harvard.edu . 24 марта 2020 г. Проверено 23 декабря 2020 г.
  4. ^ «CHLP приветствует новых сотрудников Рашиду Ричардсон и Рухи Чоудри» . Центр законодательства и политики в области ВИЧ . 11 июля 2012 года . Проверено 7 февраля 2021 г.
  5. ^ «Рашида Ричардсон» . Нью-Йоркский союз гражданских свобод . 21 октября 2020 г. Проверено 23 декабря 2020 г.
  6. ^ Чак, Элизабет (28 июля 2017 г.). « Textalyzer может арестовать отвлеченных водителей, но какой ценой для конфиденциальности?» . Новости Эн-Би-Си . Проверено 7 февраля 2021 г.
  7. ^ Лизза, Райан; Баде, Рэйчел; Палмери, Тара; Дэниелс, Юджин (20 июля 2021 г.). «Политический сборник: RIP BIF?» . Проверено 4 июля 2022 г.
  8. ^ Перейти обратно: а б Джонсон, Хари (23 декабря 2021 г.). «Движение к «алгоритмическому возмещению» требует расовой справедливости в ИИ» . Проводной . Проверено 4 июля 2022 г.
  9. ^ «Рашида Ричардсон '11 присоединяется к Northeastern в качестве доцента кафедры права и политологии» . Юридический факультет Северо-Восточного университета . 15 января 2021 г. . Проверено 6 февраля 2021 г.
  10. ^ «Борьба с онлайн-вредом посредством инноваций» (PDF) . ftc.gov . Федеральная торговая комиссия . 16 июня 2022 г. стр. 2, 44, 75–77 . Проверено 4 июля 2022 г.
  11. ^ «EPIC ОБЪЯВЛЯЕТ НОВЫХ ЧЛЕНОВ КОНСУЛЬТАТИВНОГО СОВЕТА» . Служба новостей штата . 13 марта 2020 г. . Проверено 5 февраля 2021 г.
  12. ^ Мелендес, Стивен (29 марта 2021 г.). «Этот транспортный стартап стал редким шагом и включил в свой совет экспертов по акциям» . Компания Фаст . Проверено 4 июля 2022 г.
  13. ^ Роуп, Лиза Рабаска (3 октября 2018 г.). «Думаете, компьютеры менее предвзяты, чем люди? Подумайте еще раз» . Христианский научный монитор . Проверено 8 февраля 2021 г.
  14. ^ Шуппе, Джон (30 июля 2018 г.). «Распознавание лиц дает полиции новый мощный инструмент слежения. Это также вызывает тревогу» . Новости Эн-Би-Си . Проверено 7 февраля 2021 г.
  15. ^ Иванова Ирина (12 июня 2020 г.). «Почему технология распознавания лиц имеет проблему предвзятости» . Новости CBS . Проверено 7 февраля 2021 г.
  16. ^ Иган, Пол (9 января 2020 г.). «Ошибка штата Мичиган привела к тому, что человек объявил о банкротстве» . Детройт Фри Пресс . Проверено 8 февраля 2021 г.
  17. ^ Рейнольдс, Крис (19 мая 2019 г.). «В Канаде нет законов для решения проблем, связанных с искусственным интеллектом: эксперты» . Глобальные новости . Канадская пресса . Проверено 9 февраля 2021 г.
  18. ^ Дастин, Джеффри; Дэйв, Пареш (27 марта 2019 г.). «Этический вопрос занимает центральное место на саммите в Кремниевой долине по искусственному интеллекту» . Рейтер . Проверено 7 февраля 2021 г.
  19. ^ «Оптимизация взаимодействия: понимание использования убедительных технологий на интернет-платформах» . Комитет Сената США по торговле, науке и транспорту . 25 июня 2019 г. Проверено 9 февраля 2021 г.
  20. ^ Де Ла Гарса, Алехандро (23 августа 2019 г.). «Познакомьтесь с исследователями, работающими над тем, чтобы искусственный интеллект стал силой добра» . ВРЕМЯ . Проверено 9 февраля 2021 г.
  21. ^ Левин, Александра С. (25 июня 2019 г.). «Сенатская торговля использует «убедительные» технологии» . Политик . Проверено 9 февраля 2021 г.
  22. ^ Хао, Карен (13 февраля 2019 г.). «Полиция США обучает ИИ, предсказывающих преступления, на основе фальсифицированных данных» . Обзор технологий Массачусетского технологического института . Проверено 9 февраля 2021 г.
  23. ^ Хао, Карен (2 апреля 2020 г.). «ИИ не может предсказать, как сложится жизнь ребенка, даже имея массу данных» . Обзор технологий Массачусетского технологического института . Проверено 8 февраля 2021 г.
  24. ^ Небеса, Уилл Дуглас (5 февраля 2021 г.). «Предсказывающая полицейская деятельность по-прежнему является расистской, какие бы данные она ни использовала» . Обзор технологий Массачусетского технологического института .
  25. ^ Небеса, Уилл Дуглас (17 июля 2020 г.). «Алгоритмы прогнозирования деятельности полиции являются расистскими. Их необходимо демонтировать» . Обзор технологий Массачусетского технологического института . Проверено 8 февраля 2021 г.
  26. ^ Камминг-Брюс, Ник (7 декабря 2020 г.). «Группа ООН: Технологии в работе полиции могут усилить расовую предвзятость» . Нью-Йорк Таймс . Проверено 7 февраля 2021 г.
  27. ^ Перейти обратно: а б Ричардсон, Рашида; Кан, Альберт Фокс (5 февраля 2021 г.). «Государства терпят неудачу в сфере крупных технологий и конфиденциальности — Байден должен взять на себя инициативу» . Холм . Проверено 7 февраля 2021 г.
  28. ^ Херско, Тайлер (27 августа 2020 г.). « Трейлер «Социальной дилеммы»: документ Netflix подробно описывает, как социальные сети манипулируют своими пользователями» . ИндиВайр . Проверено 7 февраля 2021 г.
  29. ^ Шанфельд, Итан. «Команда, стоящая за «социальной дилеммой», показывает, как противостоять крупным технологиям» . Разнообразие . Проверено 4 июля 2022 г.
  30. ^ Небеса, Уилл Дуглас (5 февраля 2021 г.). «Предсказывающая полицейская деятельность по-прежнему является расистской, какие бы данные она ни использовала» . Обзор технологий Массачусетского технологического института . Проверено 12 июля 2022 г.
  31. ^ Ричардсон, Рашида; Как, Амба (11 сентября 2020 г.). «Пришло время задуматься об этой основополагающей части полицейских технологий» . Сланец . Проверено 8 февраля 2021 г.
  32. ^ Как, Амба; Ричардсон, Рашида (1 мая 2020 г.). «Политика искусственного интеллекта должна быть ориентирована на воздействие и подотчетность» . Центр инноваций в области международного управления .
  33. ^ Ричардсон, Рашида (15 декабря 2019 г.). «Выиграйте войну против алгоритмов: автоматизированные системы принятия решений берут на себя слишком большую часть государственного управления» . Нью-Йорк Дейли Ньюс . Проверено 8 февраля 2021 г.
  34. ^ Ричардсон, Рашида, изд. (4 декабря 2019 г.). «Противостояние черным ящикам: теневой отчет Целевой группы по автоматизированной системе принятия решений города Нью-Йорка» (PDF) . Criticalracedigitalstudies.com . Институт AI Now . Проверено 8 февраля 2021 г.
  35. ^ Ричардсон, Рашида; Шульц, Джейсон М.; Саутерленд, Винсент М. (сентябрь 2019 г.). «Судебные разбирательства по алгоритмам, отчет США за 2019 год: новые проблемы в использовании правительством алгоритмических систем принятия решений» (PDF) . Институт AI NOW . Проверено 7 февраля 2021 г.
  36. ^ Ричардсон, Рашида; Шульц, Джейсон М.; Кроуфорд, Кейт (май 2019 г.). «Грязные данные, плохие прогнозы: как нарушения гражданских прав влияют на данные полиции, прогнозные полицейские системы и правосудие» (PDF) . Обзор права Нью-Йоркского университета .
  37. ^ Ричардсон, Р. (12 декабря 2017 г.). «Нью-Йорк борется с алгоритмической дискриминацией» . NYCLU . Проверено 8 февраля 2021 г.
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 35c5c330542953756e758893fe141df8__1710347460
URL1:https://arc.ask3.ru/arc/aa/35/f8/35c5c330542953756e758893fe141df8.html
Заголовок, (Title) документа по адресу, URL1:
Rashida Richardson - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)