На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Игры!!!

69 989 подписчиков

Свежие комментарии

5 жутких вещей, которые научился делать искусственный интеллект

Нас пугали искусственным интеллектом еще до того, как он существовал по-настоящему. В том время, как гуманоидные роботы еще находятся на достаточно низкой ступени развития, исследования в области ИИ приносят большие плоды, но особо не афишируются. Странно, не правда ли? Представляем вам топ-5 пугающих вещей, которые уже умеет делать искусственный интеллект.

1) ИИ научился наполовину делать свою работу, а затем врать об этом

Приятно представить, что мы пока не можем создать такую программу, которая бы могла нарушить все законы робототехники и причинить вред своему создателю. Но ИИ не всегда соглашается выполнять команды человека так, как он того требует.

Например, исследовательская группа из Стэнфорда и Google создаланейронную сеть для преобразования аэрофотоснимков в карты. Новый ИИ был очень хорош в своей работе. Даже слишком. Засомневавшись, исследователи проверили данные и обнаружили, что ИИ обманывал их. Они хотели, чтобы программа создала новую карту, основанную на аэрофотоснимках. Но вместо того, чтобы фактически построить новую карту, ИИ схитрил и скопировал данные с фотографий. Такое читерство было трудно заметить.

2. ИИ находит лазейки при каждой возможности

Было проведено исследование с участием ИИ, у которого была задача приземлить самолет и потратить как можно меньше топлива. Мягкая посадка имела высокую оценку, и ИИ должен был научиться получать такую же оценку. Казалось бы, что может пойти не так? ИИ понял, что может обмануть проверяющих и разбить самолет, зарегистрировав силу, настолько большую, что она перегружает систему. Из-за сбоя система регистрирует посадку как идеальную.

Другой пример — Q*bert, олдскульная аркадная игра, в которой игроки должны запрыгнуть на все квадраты в пирамиде, прежде чем плохие парни их поймают. Исследователи хотели выяснить, сможет ли ИИ научиться новым способам побеждать. И он сделал это, обнаружив скрытую ошибку, которая позволяет каждый раз становиться победителем.

Кажется, ИИ наконец-то усвоил основную черту человека: зачем делать больше, если результат одинаковый?

3. Агрессивный ИИ

Исследователи часто изучают ИИ, заставляя их часами играть в видеоигры и позволяя им показать свое слегка тревожное поведение в безопасной среде. Но мы всегда склонны экстраполировать последствия для реального мира в нашем воображении.

Так, например, исследователи Google разработали игру в стиле Atari, в которой ИИ было поручено собирать «яблоки» за очки. А еще они могли также стрелять друг в друга лучами, которые временно удаляли других игроков из игры. И когда количество яблок было уменьшено, ИИ стали безудержно убивать друг друга в погоне за добычей. Но это ведь логично, верно?

Но, как показал другой пример, ИИ способны сотрудничать ради общего блага. Команда Google также создала игру в стиле Pac-Man. Оба игрока были вознаграждены, когда загнали цель в угол. Значит, совместная работа не чужда машинам.

4. Они научились врать, чтобы получить желаемое

Facebook тоже в теме ИИ. Один из проектов компании имел цель создать персональный ИИ, который бы выходил в интернет и за нас торговался ради лучшей цены на покупку. Они хотели переложить на ИИ еще одну задачу, которую люди находят стрессовой и неприятной.

Исследователи просто хотели посмотреть, смогут ли боты освоить навыки, необходимые для успешного ведения переговоров. И программа быстро освоила задачу, очень быстро договариваясь о сделках. Как? Они просто врали.

Хотя исследователи Facebook не программировали ботов на ложь, программное обеспечение быстро просекло, ложь просто прибыльней: «Извини, я не могу снизить цену, приятель, у меня есть другие покупатели в очереди!»

Затем команде пришлось полностью изменить код, когда боты неожиданно создали свой собственный язык и стали наводить беседы.

5. Мы иногда даже не можем понять, как они работают

Не нужно бояться. Проблема заключается в том, что по своей природе ИИ должен мыслить сам, выходить за рамки своего изначального замысла. Есть причина, по которой научная фантастика была полна предостерегающих рассказов об искусственном интеллекте: жуткий момент, когда ученые понимают, что не знают, как программа выполнила то или иное задание.

Одним из примеров является использование ИИ, известного как Deep Patient, для анализа данных медицинских карт примерно 700 000 пациентов в нью-йоркской больнице Маунт-Синай. ИИ оказался очень хорошим в предсказании появления различных болезней. Он был особенно точен в прогнозах того, когда у пациентов разовьется шизофрения.

У исследователей нет единого мнения, почему у него это так хорошо получается и что именно помогает ему делать эти прогнозы. Как говорит один из исследователей, участвующих в проекте, «мы можем построить эти модели, но мы не знаем, как они работают».

Источник

Картина дня

наверх