#культурные_коды

«Новость уже вызвала скандал в Саудовской Аравии. Во время конференции и объявления о гражданстве София находилась с непокрытой головой и лицом, без хиджаба и без мужчины-опекуна. Многие пользователи Интернета отметили, что у женщин Саудовской Аравии такого права нет, но оно, похоже, есть у робота.»

https://www.popmech.ru/technologies/news-393732-chelovekopodobnyy-robot-poluchil-grazhdanstvo-saudovskoy-aravii/

Инициативу стэнфордских исследователей восприняли совсем не так, как они рассчитывали. ЛГБТ-группы обрушились на них с критикой, ученым на почту стали приходить угрозы, а их разработку прозвали «ИИ-френологией». В результате Американская ассоциация психологов начала проверку исследования на предмет нарушения этики.
Этот случай доказывает необходимость создания этического регулятора в области научных исследований, считает Чен. Особенно это касается социальных наук, нормы регулирования которых устарели и стали далекими от реальности. Если ученые получают финансирование от государства и хотят провести исследование с участием людей, они должны получить одобрение от комитетов по этике, существующих во всех вузах страны. Однако комитеты придерживаются правил, установленных еще 40 лет назад. В первую очередь они направлены на защиту реальных людей, а в случае с базами данных регуляторы на многое закрывают глаза. Именно поэтому проект стэнфордских ученых по опознанию гомосексуалов по фото и получил одобрение этического комитета этого университета.

Недавно Apple опубликовала вакансию разработчика голосового помощника Siri с навыками психолога. В объявлении компания отметила, что к Siri часто обращаются за моральной поддержкой, поэтому важно учитывать психологические особенности пользователей при разработке.

https://hightech.fm/2017/09/19/ai_watchdog

Если же речь заходит о собственно сознании, то оно делится еще на два типа. Один — это способность отбирать важную информацию из огромного количества данных, присутствующих в нашем мозге одновременно, которая делает возможным долгосрочное планирование. Другой — умение получать и обрабатывать информацию о самом себе, то есть рефлексировать и исправлять ошибки. Этими формами сознания компьютеры не обладают.
Впрочем, прогресс не стоит на месте, и понемногу ИИ начинает приобретать и другие виды сознания. К примеру, год назад DeepMind разработала систему глубокого обучения, которая сама определяет, какие сведения сохранять в памяти. ИИ британского подразделения Google стал одним из первых, кто смог соединить внешние данные и глубокое обучение. Другая нейронная сеть, разработка Яна Гудфеллоу, способна оценить, насколько соответствуют действительности данные, выданные ИИ, сообщает MIT Technology Review.

https://hightech.fm/2017/10/27/ai-consciousness

Автор Анна Пчелинцева, теги заметки, здоровье, Интернет, интерьер, искусство, история, психология, саморазвитие. Дата: Октябрь 29, 2017, 12:08 дп |

НАВЕРХ