Разработчики «раздевающего» приложения закрыли проект

Нашлось слишком много желающих им воспользоваться

28.06.19

Фото gazeta.ru

Создатели приложения DeepNude, позволяющего «раздеть» любую женщину на фотографии при помощи нейросетей, приняли решение закрыть свой проект. Разработчики неожиданно заявили о том, что не ожидали такой популярности и массового злоупотребления возможностями этой программы.

Мобильное приложение DeepNude стало знаменитым на весь мир в течение одного дня, когда портал Motherboard опубликовал материал о программе, которая с помощью нейросетей может «раздеть» любую женщину на фотографии — искусственный интеллект сам удаляет одежду и дорисовывает голое тело на основе большого количества загруженных в систему снимков.

Сообщалось, что разработчики DeepNude в перспективе обещали «раздевать» и мужчин, но так как фотографий обнажённых женщин в интернете гораздо больше, то этот функционал пока остался недоступным.

Всего приложение просуществовало 5 дней.

В то время как Motherboard осудил создателей приложения, оно моментально стало вирусным, так как пользователи начали массово проверять возможности DeepNude, пишет Газета.ру.

Разработчики не смогли справиться с наплывом трафика и временно отключили приложение, пообещав «усилить» сервера и вновь вернуться онлайн.

Тем не менее, вечером в этот же день стало известно о том, что временное отключение станет постоянным. Создатели приложения сообщили о том, что не рассчитывали на такой поток трафика, из-за чего «вероятность злоупотребления приложением резко увеличилась», — deepnudeapp (@deepnudeapp) 27 июня 2019 г.

«Мы не хотим зарабатывать таким образом», — заявили создатели DeepNude, добавив, что не будут выпускать новых версий. В конце своего послания разработчики заявили о том, что мир «ещё не готов» к их приложению.

Несмотря на такое «благородство», проявленное разработчиками, трудно представить мир, который будет готовым к технологии, «раздевающей» любую женщину. Этот инструмент идеально подходит для так называемой «порномести», когда, например, бывшие любовники пытаются навредить друг другу, отправляя их интимные фото онлайн и размещая их в общем доступе.

Учитывая, что нейросети продвинулись настолько далеко, настоящие снимки уже даже не нужны — достаточно одного клика мышки, и компрометирующее фото готово.

Впрочем, как утверждает один из разработчиков DeepNude по имени Альберто: «Я не вуайерист, я техноэнтузиаст». По его словам, он использовал для своего приложения алгоритм Pix2Pix, находящийся в открытом доступе. Pix2Pix позволяет осуществлять так называемый перевод «с картинки на картинку», когда одно изображение подменяется другим.

«Мы видели замечательные способы использования нашей работы врачами, художниками, картографами, музыкантами и многими другим», — рассказал в электронном письме Business Insider профессор Массачусетского технологического института Филипп Изола, который помогал в создании Pix2Pix.

«Мы, как научное сообщество, должны обсудить вопрос о том, как лучше продвигать нашу область вперёд, в то же время внедряя разумные меры предосторожности, чтобы гарантировать выгоду от положительных сценариев использования и предотвращать злоупотребления», — заявил профессор.

DeepNude является ещё одним примером использования современных технологий для создания натуралистичных фейков, которые получили название «deepfakes». Как правило это видеоролики, которые очень похожи на настоящие, но на самом деле являются сфабрикованным продуктом. В прошлом году на deepfakes обратили внимание в связи с появлением большого количество фейковых порнороликов с участием знаменитостей.

Звезды и публичные лица становятся основной целью для создателей таких видео, так как в открытом доступе можно найти большое количество их фотографий. Чем больше материала для обучения получает нейросеть, тем реалистичнее получается продукт на выходе.

Один из популяризаторов этой технологии, опубликовавший порноролик с участием голливудской актрисы Галь Гадот, не считает, что deepfakes несут в себе серьёзную опасность.

«Каждую технологию можно использовать во вред, и с этим ничего нельзя поделать. Главное в этом алгоритме — простота его использования. Не вижу ничего плохого в том, что с его помощью ещё больше людей заинтересуются машинным обучением», — заявил программист.

Эксперт в области ИИ и автор книги «Искусственный интеллект в компьютерных играх» Алекс Шампандар рассказал, что с помощью продвинутой видеокарты эффекта deepfakes можно добиться всего за несколько часов.

С этической точки зрения последствия этой технологии могут быть катастрофичными, считает Шампандар. По его мнению, через несколько месяцев эта технология может настолько усовершенствоваться, что человеческий глаз не заметит разницы между оригиналом и подделкой.

Кроме того, порноролики со звездами — лишь одна из областей применения нейросетей.

Сфабрикованные видео можно использовать для шантажа и введения в заблуждение большого количества людей. Потенциал использования злоумышленниками deepfakes в политике и сфере безопасности бесконечен — одного фейкового ролика с главой государства, который говорит то, что никогда бы не сказал в реальной жизни, хватит на то, чтобы дестабилизировать ситуацию в целой стране или даже регионе.

 

Автор: ruffnews.ru

Спецпроекты

Трое молодых людей оказались под следствием за попытку привлечь внимание к ростовским погорельцам

Donnews.ru разобрал результаты вступительной кампании в вузы Ростовской области