Специалисты перестают понимать принципы принятия решения ИИ
Учёным и программистам непонятно, каким именно образом искусственный интеллект принимает решения. Такие заявления прозвучали на главной в мире ИИ-конференции – Neural Information Processing Systems, которая прошла в Лонг-Бич (Калифорния).
Эксперты заявили, что предпринимать действия нужно, пока система не достигла предела сложности. Джейсон Йосински, представляющий американскую компанию Uber, отметил, что людям важно понимать логику искусственного интеллекта. Иначе люди не захотят принимать модели обучения, предлагаемые машинами.
Данной проблеме дали название «чёрная коробочка». Ранее было доказано, что ИИ бывает слишком самостоятелен: принимает необъективные решения и проводит аналогии в ситуациях, которые не стоит повторять. Кири Вагстафф (эксперт по ИИ в NASA) отметил, что ошибка искусственного интеллекта может стоить очень дорого. Например, аппараты по космической миссии на Марс расположены в 200 миллионах миль от нашей планеты, а цена их – несколько сотен миллионов долларов.
В настоящее время учёные пытаются найти методы, которые помогли бы понять искусственный интеллект. Мэтра Рагху, специалист из Google, проанализировала миллионы операций, чтобы отследить действия отдельных искусственных «нейронов». Она определила и отключила те, которые фиксировались на ложных представлениях. А значит, перевести нейросети в понятную для человека форму вполне возможно. Вагстафф заметил, что эта операция похожа на пересказ текста своими словами.
Глубокое обучение создавалось аналогично работе мозга. Ученые убедились, что человек усваивает информацию подобным образом. Поэтому нейроны человека отлично подходят для методов глубокого обучения.
Источник: Quartz.com