Получение захватывающих профессиональных новостей — это приятный способ завершить 2018 год, за исключением случаев, когда похвалы достаются кому-то другому! С таким именем, как Джо Роджерс, я ожидаю много двойников в Интернете, но я не ожидал, что еще один Джозеф Роджерс будет помечен программным обеспечением искусственного интеллекта LinkedIn для моей компании WorkDone. Представьте мое удивление, когда я недавно увидел мое интервью в Forbes с фотографией этого парня вместо моей:
Мой новый друг Джозеф Роджерс (теперь мы связаны через LI) любезно предупредил меня об ошибке, что заставило меня задуматься о том, как алгоритмы LinkedIn могли спутать «Джозефа Т. Роджерса» с «Джозефом Роджерсом» — у нас нет точного одно и то же имя, и мы, конечно, не похожи. Я усмехнулся над иронией того, что я генеральный директор компании-разработчика программного обеспечения, основанной на искусственном интеллекте, и алгоритм искусственного интеллекта ошибочно принял мою фотографию за чью-то другую. Как мета!
Поиск эффективных решений для этих ошибок имеет решающее значение, потому что плохо протестированные реализации ИИ могут быть трагическими, как в случае использования распознавания лиц в правоохранительных органах. Хотя путаница в LinkedIn была, безусловно, безобидной (и забавной), она напоминает о том, что индустрия ИИ должна согласовать этический кодекс, который будет служить различным группам заинтересованных сторон, а не только людям, которые его создают.
Как технологи искусственного интеллекта, мы обязаны не только создавать технологии, которые не наносят вреда, но и действительно двигают общество вперед и улучшают жизнь людей — жизнь ВСЕХ людей.