Рассылка о технологиях 2 октября 2018 Рассылка о технологиях 2 октября 2018

Первое правило бототехники, ошибки искусственного интеллекта и всё, что надо знать об оптоволокне

Главный исследователь искусственного интеллекта в Facebook Ян Лекун обозвал призывы Илона Маска заняться регулированием ИИ сумасшествием.

Директор по исследованиям искусственного интеллекта Facebook Ян Лекун

По мнению Лекуна, ИИ еще на очень ранней стадии развития, и ничего хорошего мрачные прогнозы (Маск уверен, что ИИ опаснее ядерного оружия) не принесут.

Мы делали главные деловые СМИ страны, теперь делаем лучше - подпишитесь на The Bell.

Хотя искусственный интеллект все еще работает плохо и только развивается, прогресс не остановить. К 2030 году влияние алгоритмов ИИ на ВВП в Китае превысит $7 трлн, а в Северной Америке составит почти $4 трлн.

В этом выпуске технорассылки The Bell мы разбираемся, из чего складывается влияние ИИ на экономику и общество.

Влияние ИИ на ВВП к 2030 году

Искусственный интеллект влияет на права человека. Отчет Berkman Klein Center for Internet & Society разбирает случаи влияния прямого влияния алгоритмов на жизнь — без свойственной подобной текстам оглядки на этические вопросы.

Шесть ключевых областей применения ИИ — наём рабочей силы, уголовное судопроизводство, присвоение кредитных рейтингов, медицинская диагностика, проверка работ в образовании и модерация онлайнового контента без участия человека.

Что мне с этого? Алгоритмы, логику которых не всегда понимают их создатели, уже регулируют многие стороны вашей жизни. Чтобы гарантировать защиту ваших прав, надо хотя бы знать — где решение принимала машина, могла ли она ошибиться и как это оспорить.

Калифорния отрегулирует поведение ботов. Законодатели штата приняли документ, вводящий «первое правило бототехники»: при общении с человеком бот обязан предупредить того о своей искусственной природе. Калифорнийский закон вступит в силу 1 июля 2019 года.

Что мне с этого? Калифорнийское законодательство затронет большинство компаний Кремниевой долины и повлияет на принятие решений местными бизнесменами. Этот закон может стать модельным для национального законодательства, регулирующего взаимодействие с ИИ, по всему миру.

Роботы с искусственным интеллектом трансформируют воспитание детей в Китае. Обучающие роботы для детей 3-5 лет стоят $300 и освобождают сверхзанятых родителей. Дети проводят с подобным игрушками, умеющими поддерживать примитивный разговор и строить рожицы, по два часа в день.

В 2018 году в Китае было продано 30 миллионов образовательных роботов для детей, включая детские цифровые часы. Ожидается, что продажи в 2019 году превысят 100 миллионов экземпляров. Причина популярности — в меньшей требовательности маленьких потребителей к развитости ИИ робота. ИИ здесь употребляется как маркетинговый ярлык — во многих, но не во всех подобных устройствах речи о хоть какой-то форме машинного обучения или других ИИ-алгоритмах не идет.

Что мне с этого? Никто не знает, до какой степени игрушки могут заменить родителей в формировании первичных навыков познания и поведения. Решается вопрос, на ком будет лежать ответственность за воспитание ваших детей и внуков — электронном воспитателе, родителях или, например, отделе образования корпорации, выпускающей игрушки?

Искусственный интеллект может и будет ошибаться. Австралийские исследователи еще раз подтвердили, что у применения ИИ в диагностике есть границы. Они протестировали систему, которая должна была помочь врачам определить у пациентов наличие диабетической ретинопатии — осложнения, приводящему к ухудшению и потере зрения.

Натренированная на 30 тысячах изображений, система правильно определила двух пациентов с ретинопатией, но сгенерировала 15 (!) ложно-положительных результатов. Существенная часть ошибок проистекала из-за плохого освещения и отражения от грязных линз. В тренировочном наборе не было изображений плохого качества — система просто не знала, что в реальной медицине решения приходится принимать на основе неполной информации и плохих снимков.

Что мне с этого? Любые критерии надежности должны проверяться на практике, особенно когда это касается таких важных отраслей как медицина. Через несколько лет усовершенствованные системы будут лечить вас и все равно ошибаться. Кто будет нести за это ответственность — страховая компания, составители набора данных, врачи или программисты — пока неясно. Эта область не регулируется законом и здравым смыслом.

Read later

Все, что вы хотели знать об оптоволоконной связи. Очень понятный pdf из 97 слайдов, отвечающий даже на те вопросы, которые новички не догадались задать.

Не отвлекайтесь. Почти годовалой давности пост на вечную тему — где заканчивается техническая ответственность программиста и начинается этическая. Что делать, если ты выяснил, что твоя программа призвана убивать людей?

Александр Амзин

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl + Enter.