Denis Sexy IT – О нейронных сетях, виртуальной реальности и технологиях – простым языком 🤖🚀💖

Автор:
@ShirMan

Инвайт в канал:
https://tele.gg/denissexy


Если вы хотите разместитесь рекламу, рассмотрите канал Андрея Бродецкого @brodetsky

Знаете как можно заставить нейронку узнавать какие-то объекты и предметы?

Допустим, вы хотели бы узнавать на каждой фотографии «газовый ключ разводной» – ну допустим. Вы готовите набор данных из тысяч фотографий где находятся гаечные ключи, что само по себе сложно, потому что их придется где-то найти.

Ну допустим вы справились с этой задачей, теперь самое сложное – вам нужно на каждой фотографии обвести рамкой где именно газовый ключ находится на фото, чтобы нейронка знала что искать – это сложно, долго и неимоверно скучно.

Пройдя все эти этапы вы сможете научить какой-нибудь алгоритм (например Yolo) узнавать разводные ключи на любой фотографии – поздравляю, вы прекрасны.

Но есть еще один подход, который в ML индустрии звучит как:
Unsupervised Classification.

Он намного сложнее – вы просто скармливаете тысячи картинок нейронке, ничего не размечаете, она пыхтит сравнивая все картинки между собой сложными способами и в итоге возвращает вам группы картинок, на которых по ее мнению изображено «одно и то же».

Вам же остается только найти где же там «разводные ключи» и подписать их.

Это сложная и классная ML задача и я не могу нарадоваться, что помимо того, что код такой нейронки опубликовали на гитхабе – она в данный момент считается самой лучшей в этой области:
https://github.com/wvangansbeke/Unsupervised-Classification

Так еще для ML-инженеров есть детальный разбор того как она устроена на английском:
https://youtu.be/hQEnzdLkPj4

В общем, если вы в теме, вам понравится ✨

Тут известный техноблогер Linus Tech Tips выпустил довольно клевый эксперимент – посмотрите это видео, не находите его странным?
https://youtu.be/34AmKPJNfCg

В общем, помимо того, что тут применен Deep fake который заменил целиком голову, весь голос к видео тоже синтезирован нейронкой которая обучена на голосе Линуса.

О том как делали:
https://youtu.be/G0z50Am4Uw4

Мне тут написал подписчик у которого такая же модель Tesla, я его спросил были ли у него ситуации когда он радовался бы автопилоту и насколько он часто его использует, вот ответ:

>Я радуюсь автопилоту, потому что не думал что буду жить в времена когда машины ездят сами. Каждый раз как в кино ) Конечно в США больше фишек, чем в Европе. Но и то что тут доступно оч клево.

>Пользуюсь много, грубо любая поездка по трассе это автопилот (даже если просто на кольцевую вокруг города поехал). За 200км пути устаешь как за 20км. Плюс машина едет плавно, человек так не может. Расход меньше и просто приятно ехать. Ну и она едет 90% за тебя. Надо только говорить можно обогнать или нет. В США этого нету, в Европе по закону так надо.

>Там в целом машина, даже без автопилота часто помогает. Если кто-то встал перед тобой или если ты из полосы как в этом видео вываливаться вдруг стал.

А, тут без магии:
Автор видео пишет, что ему автопилот помог дистанцией в основном, сам автопилот не вывернул руль, это сделал человек. Ну и автопилот помог вернуть машину обратно на полосу.

Цитата:
>The Tesla did not dodge the tire, I did. However, the autopilot gave me the time and view which allowed me to see the tire coming from the other side of the freeway. Also, the car stabilized very quickly after swerving to avoid getting hit. The car kept me from flipping over and spinning out into five lanes of traffic.

#промо
Программисты — одни из самых востребованных специалистов на рынке труда. Они хорошо зарабатывают и всегда могут работать удаленно — как в найме, так и на себя. Если вы давно интересуетесь этой сферой, но пока так и не выбрали свой путь в разработке — приходите на бесплатный онлайн-интенсив «Основы программирования» образовательного портала GeekBrains от Mail.ru group.

Что вас ждет:
🔹Общие представления о разработке с реальными примерами.
🔹Обзор направлений в программировании и советы по выбору.
🔹Обзор языков программирования, которые используются для разных IT-продуктов.
🔹Ответы на любые интересующие вопросы по теме.

Записывайтесь на интенсив, качайте скиллы и выбирайте свое направление!

Доступ — по ссылке https://geekbrains.ru/link/i-k95g

#текстприслан

| Forwarded from Полный беспилот

Роботы Refraction AI начали доставлять продукты с рынка Produce Station в городе Энн Арбор, Мичиган. До этого они три месяца доставляли заказы из ресторанов.

Роботы Refraction - это такой промежуточный вариант между машинообразными доставщиками Nuro и их шестиколесными тротруарными собратьями. У них три колеса, по размеру они ближе к электровелосипеду и движутся по велодорожкам со скоростью 15-25 км/ч. Из сенсоров на них установлены 12 камер, радары и парктроники. Лидары и высокоточные карты роботы не используют. Из-за эпидемии роботов еще оборудовали ультрафиолетовыми лампами, а после каждой доставки они проходят дополнительную ручную дезинфекцию.

Продукты доставляются в радиусе около 3км вокруг Produce Station. Пока у Refraction 8 роботов в Энн Арбор, но уже в ближайшие несколько недель они планируют увеличить их количество до 20. О стоимости доставки продуктов информации пока нет, но с ресторанов Refraction берут фиксированные $7.50 за заказ. При этом включать доставку целиком или частично в стоимость заказа, рестораны решают самостоятельно.

Компания Refraction AI была основана совсем недавно в 2019 году двумя профессорами из университета Мичигана. На данный момент они получили уже 6.5млн инвестиций. С интересом слежу за этими ребятами.

https://venturebeat.com/2020/06/30/refraction-ais-autonomous-robots-begin-delivering-groceries-in-ann-arbor/

https://venturebeat.com/2020/06/30/refraction-ais-autonomous-robots-begin-delivering-groceries-in-ann-arbor/

Refraction AI’s robots start delivering groceries in Ann Arbor

Refraction AI, a startup based in Ann Arbor, has launched an autonomous delivery pilot for customers of the local Produce Station.
| VentureBeat