Тотальный контроль – для слабаков. Почему стремление следить за сотрудниками на удалёнке плохо заканчивается

По данным Pyrus, системы для создания единой корпоративной среды, отслеживающей активность сотрудников, почти половина работников не выполняет задачи к дедлайнам. Это в больших компаниях, а в секторе малого и среднего бизнеса – целых 70%. Захочет ли после таких цифр руководитель начать следить за своими сотрудниками? Какие есть методы? А повысит ли это вообще эффективность или разрушит напрочь корпоративную культуру и вызовет шквал недовольства?

Привет, ХАБР! Я Юнна, HR-generalist в 2people IT. Моя основная деятельность — поддержание флоры и фауны внутри компании. Занимаюсь подбором ультракрутых сотрудников, провожу интервью, сканирую soft-skills. Поговорим о тотальном контроле в IT сфере, как это влияет на результаты и почему до добра почти никогда не доводит.

История

Следить за своими сотрудниками работодатели любили во все времена. Пришел на работу, открыл смену в пекарне – сделай селфи в чат. Зашел в офис – пикни карточку, ушел – не забудь приложить её и отметиться об уходе. А что делать с удаленкой? Правильно, обязать всех установить на рабочие устройства трекеры. Лидируют на этом рынке Hubstaff, Kickidler, Toggl. В России еще любят “Стахановца”. Само название пугает и отбрасывает в СССР, да?

Вы наверняка сталкивались с этим адом. Если нет – вам очень повезло

Массовость такой формат приобрел одновременно с удаленкой, во время первого локдауна. Когда не только фрилансеры, но и все сотрудники оказались дома, а экономика пошатнулась – появилась необходимость в контроле людей, впервые столкнувшихся с работой в этом режиме. Быстро перестроить менеджмент казалось невозможным, а трекеры были очень заманчивым и простым выходом из ситуации. Столько вариантов контроля до этого не мог себе позволить менеджер в офисе, а в этих программах было все. Я выписала несколько основных функций, чтобы показать, как они кошмарят работников:

  1. Отслеживают рабочее время, нажатие клавиш, делают скриншоты экрана в определенное время, записывают, какие документы вы печатаете 

  2. При установке на мобильный – контролируют вас по GPS, перехватывают звонки и сообщения

  3. Смотрят сайты, которые вы посещаете, строят графики активности и составляют рейтинг сотрудников

Почему руководители так любят их?

Отслеживать эффективность сотрудников – нормально. Без этого у компании нет будущего. Следить за тем, чтобы не произошла утечка внутренних данных – тоже в порядке вещей. В корпорациях такие манипуляции проводят с отделами, разрабатывающими новые устройства и программы. Слив такой информации может серьезно повлиять на доходы и репутацию. Гиганты вроде Apple или Яндекс принимают очень серьезные меры по безопасности, особенно по поводу новых продуктов. Среди пунктов встречаются не только различные NDA с четко прописанными условиями, но и тотальная слежка за командой. Информация такого плана может стоить баснословных денег и для обеспечения безопасности принимаются самые строгие методы, вроде слежки по GPS. Тем не менее, утечки случаются и происходит это часто. 

– Если большая компания мониторит свои команды, то почему нельзя остальным? 

– Можно! – Подумали CEO и стали искать методы. 

Уже сейчас на собеседованиях рекрутеры предупреждают о такой политике компании. Действительно удобно видеть всю статистику и следить за работниками. Все графики перед глазами, если кто-то работает недостаточно, то опускается в рейтинге, а почитать переписки, скриншоты которых после рабочего дня не удалил сотрудник – вообще мёд. Большинство руководителей понимают важность границ и не злоупотребляют слежкой, используют информацию исключительно для развития бизнеса. Но не все работники готовы рисковать личной свободой. И тут мы переходим к вопросу легитимности.

Это законно?

Да, если вы подписываете документы, подтверждающие ознакомленность с трекерами. Правда, если скриншот личной переписки утечет из базы данных (некоторые программы позволяют просматривать сделанные снимки в течение дня и удалять их), то судебная система вас, как работника, прикроет. Ну, в идеальном мире, конечно же.

Если такой трекер установлен на устройство, выданное компанией, то проблем с личными данными не должно возникнуть. Если на личный лэптоп или смартфон – будьте готовы каждый день проверять, не записала ли программа ваши пароли, не заскринила ли ваши персональные данные или просмотр PewDiePie в рабочее время. Шутка.

Два полюса

Я пообщалась с коллегами из руководства других IT компаний на предмет тотального контроля и услышала полярные мнения. Одни считают тотальный контроль следствием плохих навыков менеджмента у руководства, неспособности грамотно выстроить рабочий процесс и желания упростить себе работу. Другие находят его благом, ведь небольшие ограничения не приносят дискомфорта, а плюсов от детальной статистики по каждому сотруднику огромное количество. 

Первые не видят в этом необходимости, выстраивают рабочий процесс иначе. Объясняют это негативным эффектом от “рамок”. Намного круче замотивировать сотрудника, навести порядок в корпоративной культуре и работать исключительно на результат. Если не зарываться в детали, то совсем не важно как была достигнута цель. В дневное или ночное время шел процесс, сколько раз отвлекся сотрудник во время выполнения. Главное, чтобы всё было к дедлайну. А когда “на работу, как на праздник”, так всегда и получается.

Те, кто использует трекеры в компании, выстраивают удаленку по офисной модели. Они ждут сотрудников в определенное время, задачи чаще выдаются в программах, чем в диалогах. Этот тип руководителей предпочитает сам контролировать процесс, нежели доверять работнику. Больший упор делается на рабочее время, а не на результат. Это гарантирует доступность сотрудника в рабочие часы, его серьезность и деловой формат отношений.

Как обмануть начальника

Такая работа определенно становится тем еще квестом “как обмануть и переиграть”. Когда над головой висит всевидящее око, начинаются поиски путей обхода. От простого использования других устройств, до сложного взлома трекера. Любую программу можно обойти, особенно хорошо с этим справляются айтишники, чья основная работа связана с написанием программ и приложений. И если найдены пути обхода, то соблазн уменьшить рабочее время растет, а продуктивность, соответственно, падает. 

А еще не все понимают, к чему учет рабочего времени, если добрая его половина или даже больше происходит в голове. Пока вы ведете коммуникацию, проектируете, тестируете – на экране основного устройства может ничего не происходить. Ваши записи в блокноте тоже программа не зафиксирует. Предлагаю надевать на всех шапку с трекерами мозговой активности, а то таймер тикает, а работа, как будто-бы, не делается. Нужно всё зафиксировать!

Плохой руководитель – постоянно следящий руководитель

Я часто слышала от коллег мнение о том, что плохой руководитель тот, что следит за каждым вздохом сотрудников. Проводит миллион бесполезных митингов и созвонов для сверки “общего ритма” команды, просит отчеты каждый день или, еще хуже, лично докапывается до каждого твоего действия на протяжении рабочего дня. Готова поспорить, многие были в такой ситуации. Особенно когда перешли на удаленку и обнаружили, что работать из дома не так уж приятно из-за увеличившегося прессинга со стороны менеджеров. Убеждена, что такой подход к работе действительно следствие плохо выстроенных управленческих процессов.

Чего стоит ждать внутри и снаружи при таком подходе

Об этом не кричат компании, но на внутренней кухне вопрос слежки стоит очень остро. Вы можете узнать о жестком контроле только после финального собеседования. Как HR-generalist, посоветую вам на первом же этапе напрямую спрашивать об этом. Иногда в ответе на размыто-сформулированный вопрос вы можете услышать только про KPI и формат общения с менеджером. Задайте вопрос про трекеры, уточнив, что именно они отслеживают в конкретной компании. Иногда их устанавливают для конкретных проектов по просьбе заказчиков или инвесторов.  Понимая всю абсурдность идеи в ряде случаев, работодатели об этом либо умалчивают, либо сообщают постфактум.

При ужесточении контроля, бизнес лишается высококвалифицированных специалистов, отказывающихся от должности именно из-за такой политики. Они уходят и на этапе собеседования, и если компания начинает внедрять слежку для имеющихся сотрудников. А если целая команда будет недовольна новой системой, то массовые увольнения повлекут за собой разрушение бизнеса. Лояльность к компании у тех, кто работает в такой системе, ниже, чем у работников без неё. И только зарплата выше рынка поможет удержать кадры.

Трекеры способствуют появлению четкого разграничения между руководителем и подчиненным. Лишний стресс снижает количество неформального общения и разраб становится винтиком, а дизайнер гаечкой. Строгая иерархия и власть, прямым следствием которых становится тотальный контроль – эффективность которого под большим вопросительным знаком. Так может, это лишь видимость продуктивной работы, за которой скрывается кнут без пряника?

Но так далеко не везде

Гибкий график и отсутствие слежки подразумевают все те же 8 рабочих часов в день, но они распределены совсем не так, как в офисе. Формальные часы “доступности” необходимы для встреч и обсуждения задач. Очень часто отдельные команды договариваются о своем графике работы, а конкретные созвоны планируются заранее. Чтобы работа была приятной частью жизни, а не обязаловкой, для закрытия базовых потребностей. 

У нас в компании такого нет и я очень этому рада. Давно бы свихнулась, если бы было иначе. Есть конкретные задачи и дедлайны, а работать мы просим не по 8 часов, а головой. Кому-то удобно днем только принимать задачи, а выполнять их частями, днем и ночью. Это же касается и коллег из других часовых поясов. Мы находим удобные часы для митов, а работать можно когда вся команда спит. Доверие, доверие и ещё раз доверие. Такая система позволяет руководителям уделять больше времени своим задачам, а сотрудникам спокойно работать. Только предупредите о своих пожеланиях в графике. И угадайте что? Это никак не сказывается на сроках сдачи проекта и его качестве! 

Выводы делайте сами

Контроль присутствует всегда и везде, разница в его формате и “жёсткости”. Специфика IT сферы и удаленки позволяет нам дать больше свободы. Большая ответственность при правильных KPI и других составляющих системы управления дает больший результат, чем её перекладывание на тех, кто “повыше”. Не только компания выбирает вас, но и вы компанию. Может, вы ищете формат офиса, но из дома. Может, вы наоборот бежите от этого и ищете место, где оценят вашу проактивность и дадут свободу. А может, вам вообще подходит что-то третье. 

Для меня связь дилетантского управления и мониторинга сотрудников очевидна. Допустить использование трекеров я могу лишь при работе над проектами и продуктами формата “совершенно секретно”, а брать их за основу рабочего процесса – признак слабости и желания упростить себе жизнь очень высокой ценой доверия. Расскажите, как устроена система контроля у вас и на какие шаги идут ваши руководители, чтобы организовать слежку.


ссылка на оригинал статьи https://habr.com/ru/post/668830/

Оптимизация препроцессинга и постпроцессинга нейросети Yolov5 с помощью CUDA, Thrust и Nvidia Perfomance primitives

КДПВ
КДПВ

Небольшая предыстория. У нас в компании мы решили сделать коробочный проект по распознаванию номеров (для открытия шлагбаумов, учёта проезжающих машин и т.д. и т.п.). В качестве основы взяли одноплатный Jetson Nano.

В качестве эксперимента перенесли распознавание номеров, написанное на Python и работающее в облаке, на Jetson Nano. Результаты были неудовлетворительные — почти полная загрузка CPU по причине того, что использующийся для препроцессинга OpenCV работал на CPU и постпроцессинг модели Yolo также был на CPU.

К отрицательным моментам можно также отнести:

  • Декодинг на CPU вместо аппаратного декодера, имеющегося у Jetson Nano

  • Постоянно перекопирующуюся информацию из памяти GPU в память CPU (Хотя Jetson Nano делит обычную оперативную память между GPU и CPU).

  • Ожидание GPU — 128 CUDA ядер просто сидели без дела пока 4 ARM ядра CPU были нагружены под завязку.

Решено было всё это переписывать на C++ и по возможности писать максимально оптимизированный код, близко приближенный к аппаратной платформе Jetson Nano, да и вообще завязанный на программных решениях от Nvidia.

На нашу удачу Nvidia в помощь разработчикам сделала библиотеку со всякими вспомогательными вещами для Jetson Nano. Благодаря ей можно инициализировать класс декодера видео просто указав URL RTSP потока, а получить в ответ очередь с кадрами прямо в CUDA видео-памяти, раскодированные аппаратным декодером.

// метод для создания декодера gstDecoder* gstDecoder::Create( const videoOptions& options ) // в output записывает адрес кадра в видеопамяти bool gstDecoder::Capture( void** output,                          imageFormat format,                          uint64_t timeout )

Препроцессинг

Кадр мы получили, но что делать дальше? (Yolov5s принимает нормализованное транспонированное из HWC в CHW изображение размером 640 на 640.) Необходим препроцессинг изображения:

  1. Изменение размеров , добавление рамки ( для сохранения пропорций при размере 640 на 640, к тому же саму Yolo обучали с рамкой)

  2. Перевод каждого пикселя из char во float32

  3. Нормализация ( что бы значения каждого пикселя были от 0 до 1.0 включительно)

  4. Транспонирование HWC => CHW

Для решения этой задачи мы решили использовать библиотеку Nvidia Perfomance Primitives или просто NPP. Кратко опишу как она работает. Например, нам необходимо изменить размер трехканального изображения (RGB), каждый пиксель которого хранится во float32, тогда берем функцию nppiResize_32f_C3R() . Название функции можно расшифровать так:

  • 32f в названии говорит что каждый пиксель изображения хранится во float32

  • C3 — что в изображении есть 3 канала

  • R указывает, что функция работает с указанием ROI

Аргументы у функции следующие :

  • const Npp8u *pSrc — указатель на начало исходного изображения

  • int nSrcStep — шаг изображения по ширине в байтах

  • NppiSize oSrcSize — ширина и высота исходного изображения

  • NppiRect oSrcRectROI — прямоугольник ROI исходного изображения в формате {смещение по ширине, смещение по высоте, ширина, высота }

  • Npp8u *pDst — указатель на начало нового изображения с измененными размерами

  • int nDstStep — шаг нового изображения по ширине в байтах

  • NppiSize oDstSize — ширина и высота нового изображения

  • NppiRect oDstRectROI — прямоугольник ROI нового изображения

  • int eInterpolation — интерполяция

С NPP достаточно непросто — если ошибся с аргументами то получил либо кашу вместо новой картинки, либо ненулевой статус ответа при выходе. С первым придётся сидеть и думать где же допустил ошибку. Второе проще — enum с ошибками на все случаи жизни точно подскажет что не так.

Для добавления рассчитанной рамки мы использовали nppiCopyConstBorder_32f_C3R, для нормализации изображения — nppiDivC_32f_C3IR, с транспонированием пару дней пришлось подумать как его лучше сделать , идеально подошла nppiCopy_32f_C3P3R:

// Делим на три слоя и последовательно копируем сразу в буфер Yolov5 // по смещению размером с один слой, // тем самым транспонируя в нужный вид (CHW). NppStatus st; float * const inputArr[3] {this->yoloInput,                   this->yoloInput + YOLO_PLANAR_OFFSET,                   this->yoloInput + (YOLO_PLANAR_OFFSET * 2)};  int planarStep = YOLO_SIZE * 1 * sizeof(IMAGE_TYPE);  st = nppiCopy_32f_C3P3R( (Npp32f*)this->yoloBuffer,                         this->yoloConstStep,                         inputArr,                         planarStep,                         yoloSize ); return st;

Я не описал перевод изображения во float32, явно мы его не делали, переводом в float32 занимается библиотека сразу при захвате кадра :

// format указывает, в каком формате мы хотим получить изображение. bool gstDecoder::Capture( void** output,                          imageFormat format,                          uint64_t timeout )

По поводу производительности такого препроцессинга на NPP — весь конвейер от захвата до записи в буффер TensorRT занимает на Jetson Nano 40 миллисекунд — это 25 кадров в секунду, которые приходят с камеры, замеры отдельно каждой стадии показывали примерно 10 — 15 миллисекунд.

Дальше происходит инференс Yolov5s на TensorRT , Yolov5 натренирована на меньшее количество классов чем стандартная, инференс занимает примерно 140-160 миллисекунд.

Постпроцессинг

На выходе Yolov5 мы получаем:

  • 25200 координат прямоугольников предположительно распознанных объектов

  • 25200 значений уверенности для этих прямоугольников

  • (25200 * Количество классов) значений уверенности классов

    В коде результаты представлены вот так:

// x,y - координаты центра прямоугольника // w,h - ширина, высота // s - уверенность // cs - уверенность в каждом классе  // NUM_CLS_SCORES - количество классов Yolov5  struct YoloOut  { float x; float y; float w; float h; float s; float cs[NUM_CLS_SCORES]; }; // Результат работы - 25200 YoloOut

Прямоугольников настолько много, что для Yolov5 необходим постпроцессинг: выкинуть прямоугольники которые не проходят порог уверенности, из оставшихся оставить только те, которые имеют самую высокую уверенность, отсеять те которые находятся к ним слишком близко но имеют низкую уверенность.

картинка взята из https://www.researchgate.net/figure/Non-maximal-suppression-left-all-detections-right-fused-detections_fig2_228881235
картинка взята из https://www.researchgate.net/figure/Non-maximal-suppression-left-all-detections-right-fused-detections_fig2_228881235

Для отсеивания есть специальный алгоритм «Подавления без максимума» (англ. Non-Maximum suppression или просто NMS). В open source есть готовые имплементации этого алгоритма, например в OpenCV — cv::dnn::NMSBoxes(), но они работают на CPU и поэтому нам не подходили, ведь сначала бы понадобилось переместить результаты на CPU часть оперативки (TensorRT никак не хотел использовать память аллоцированную сразу и для CPU и для GPU), а потом ещё всё и отфильтровать с помощью CPU. Поэтому было решено сделать свой NMS на CUDA, что бы работало быстро и не занимало CPU.

Пришлось на ходу вникать как работает CUDA — сетка, блоки, нити, параллелизм , ограничения, квалификаторы и т.д. Для 25200 прямоугольников было придумано сделать ещё 25200 bool значений, в которых отражать отсеян элемент или нет.

Код коммерческий и для его официального опубликования нужна бюрократия и разрешение других людей, поэтому публикую только хедеры.

// Разделим-скопируем отдельно прямоугольники, уверенность и класс объекта  //по разным местам (наверное самое не оптимизированное место // с точки зрения памяти) __global__ void splitBoxes( const YoloOut * yoloOut,                 Box * box,                 objConf_t * objectConfidence,                 ClsConf * class)  // Самая простая параллельность — 25200 блоков в сетке, // по одной нити в блоке, в качестве аргументов // указатели на начало памяти    splitBoxes <<<25200,1,1>>> (this->yoloOut,                             this->devBoxes,                             this->objC,                             this->clsConf);   // фильтрация по уверенности — если ниже порога, то ставим false __global__ void filterObjConf( const objConf_t * objectConfidence,                    boxStatus_t * boxStatus);  // точно также параллелим filterObjConf <<<25200,1,1>>> (this->objC,                                this->boxStatus); 

В чем удобство CUDA на мой взгляд — достаточно указать как тебе нужно распараллелить выполнение, а остальное CUDA берет на себя: распределяет вычисление 25200 элементов между 128 CUDA ядрами Jetson Nano.

Перед NMS помимо фильтрации по порогу уверенности необходимо умножить общую уверенность на максимальную уверенность класса и сохранить id класса с максимальной уверенностью:

// ci - сохраняем отдельно id класса, c максимумом уверенности __global__ void mulObjAndCls( objConf_t * oc,                   const ClsConf * cs,                   clsIdx_t * ci,                   const boxStatus_t * bs) // уже откинутые элементы не берем       mulObjAndCls <<<25200,1,1>>> (this->objC,                               this->clsConf,                               this->clsId,                               this->boxStatus); 

После фильтрации по порогу уверенности остается не больше 1000 элементов (обычно около 100), которые нужно компактно вытащить из массива 25200 элементов YoloOut по 25200 bool ключам. Свой эффективный алгоритм параллельного сжатия массива на CUDA мы бы не потянули, поэтому для написания NMS нам очень помогла библиотека Thrust, с помощью неё сжали результаты при помощи thrust::copy_if(), работает действительно быстро — замеры показали 1-3 миллисекунды.

thrust::copy_if(objCTh,                 objCTh + YOLO_OUT_SIZE,                 boxStatusTh,                 this->objCThResult.begin(),                 is_true()); 

После сжатия идет сам алгоритм NMS, все оставшиеся прямоугольники попарно сравниваются, если превышен порог отношения пересечений и объединений (Intersection over Union, IoU), ставится флаг о непригодности, затем снова с помощью thrust::copy_if() происходит окончательное сжатие и запись результатов.

#define BLOCKSIZE 32 normIteratorDevPtr<Box> boxesR = thrust::copy_if(devBoxesTh,                                                  devBoxesTh + YOLO_OUT_SIZE,                                                  boxStatusTh,                                                  this->boxesThResult.begin(),                                                  is_true());  // resultSize это количество отфильтрованных прямоугольников до NMS int resultSize = boxesR - boxesThResult.begin();  dim3 gridSize(int(ceil(float(resultSize)/BLOCKSIZE)),               int(ceil(float(resultSize)/BLOCKSIZE)),1);  dim3 blockSize(BLOCKSIZE, BLOCKSIZE, 1);  _nms <<< gridSize, blockSize >>>(boxesRawPtr, boxStRawPtr);  normIteratorDevPtr<Box> resultNms =    thrust::copy_if(this->boxesThResult.begin(),   this->boxesThResult.end(),   this->boxStatusNmsResult.begin(),   this->boxesAfterNmsResult.begin(),   is_true());  resultSize = resultNms - this->boxesAfterNmsResult.begin();

Заключение

При такой оптимизации нагрузка на CPU снизилась до 10-15 %, а GPU используется на 99%.

Спасибо за внимание.


ссылка на оригинал статьи https://habr.com/ru/post/668906/

Передача энергии по лазерному лучу становится реальностью

В 2019 году в порту Сиэтла в ходе демонстрации работы системы направленной передачи энергии, разработанной в PowerLight Technologies, были переданы сотни ватт мощности. Подробностями о разработке делимся к старту флагманского курса по Data Science.


Провода доставляют проблемы электроэнергетическим компаниям: чтобы избежать растрачивания большей части энергии, им приходится повышать подаваемое на кабели напряжение до очень высоких значений. А при электроснабжении общественного транспорта, в том числе поездов и трамваев, провода необходимо использовать вместе с катящимися или скользящими электрическими контактами, которые тяжело обслуживать, они могут искриться, а в некоторых условиях — даже стать источником сложных загрязняющих веществ.

Идёт активный поиск решения этих проблем. В прошедшее десятилетие широкое распространение получила беспроводная зарядка — в основном для портативной электроники, но и для транспортных средств. С ней необходимость многократного подключения и отсоединения кабелей осталась в прошлом. Однако расстояние, на которое таким способом можно передавать энергию, очень малó.

Действительно, сложно заряжать устройство с воздушным зазором всего в пару сантиметров и тем более метров. Неужели нет практического способа беспроводной передачи энергии на бóльшие расстояния?

У некоторых людей при упоминании о беспроводной передаче энергии перед глазами возникают картинки с высоковольтными катушками Николы Теслы и миниатюрными разрядами молнии. И это не такая уж и глупая ассоциация. Теслу действительно занимала идея каким-то образом использовать землю и атмосферу как канал для передачи энергии на большие расстояния. Его задумка осталась нереализованной, но мечта о беспроводной передаче энергии на большие расстояния продолжала жить.

Чтобы продемонстрировать безопасность этой системы, ведущий научной программы BBC  Bang Goes the Theory («Проверь теорию на прочность») подставил своё лицо под энергетический пучок.

Современник Теслы Гульельмо Маркони понял, как использовать «волны Герца» (сегодня их называют электромагнитными) для передачи сигналов на большие расстояния. А это привело к пониманию того, что можно использовать те же самые волны для переноса энергии из одного места в другое. Ведь именно так вся накопленная в древесине, угле, нефти и природном газе энергия оказалась там изначально: передавалась в пространстве на 150 млн. км в виде электромагнитных волн / солнечного света (причём её бóльшая часть — миллионы лет назад).

Применимы ли те же самые физические принципы для замены проводов сегодня? Мы с коллегами из Научно-исследовательской лаборатории ВМС США в Вашингтоне, округ Колумбия, считаем, что да, и вот почему.

В ХХ веке предпринимались единичные попытки использовать электромагнитные волны как средство беспроводной передачи энергии, но результаты были неоднозначные. «Золотым» для исследований беспроводной передачи энергии, возможно, стал 1975 год, когда Уильям Браун, который работал на Raytheon, и Ричард Дикинсон из Лаборатории реактивного движения НАСА (ныне в отставке) с помощью микроволн осуществили передачу энергии в лаборатории. КПД «от и до» составил более 50%. В ходе отдельного эксперимента им удалось передать более 30 кВт на расстояние около мили (1,6 км).

Эти опыты были частью масштабной кампании НАСА и Министерства энергетики США по изучению возможности использования спутниковых солнечных электростанций, на которых предполагалось в будущем получать солнечный свет из космоса и в виде микроволн передавать энергию на Землю. Но, поскольку это направление исследований появилось по большей части в ответ на энергетический кризис 1970-х годов, интерес к таким электростанциям в последующие десятилетия угас, по крайней мере в США.

И, хотя исследователи регулярно возвращаются к этой идее, при проведении реальных опытов по передаче энергии им с трудом удаётся повторить рекорд 1975 года по эффективности, дальности и уровню мощности. Но ситуация начинает меняться благодаря недавним достижениям в технологиях приёма и передачи энергии.

Узкий фиолетовый луч освещает тёмную комнату. В 2019 году при проведении эксперимента таким лазерным пучком было успешно передано 400 Вт на расстояние 325 м
Узкий фиолетовый луч освещает тёмную комнату. В 2019 году при проведении эксперимента таким лазерным пучком было успешно передано 400 Вт на расстояние 325 м

Первые попытки передачи энергии с лазерным пучком ограничивались микроволновыми частотами — той же частью электромагнитного спектра, которую сегодня заполонили Wi-Fi, Bluetooth и многие другие технологии беспроводной передачи сигналов. Такой выбор отчасти был обусловлен тем простым фактом, что эффективное микроволновое приёмно-передающее оборудование уже было доступно.

Но также повышаются эффективность и доступность устройств, работающих на гораздо более высоких частотах. Поскольку у эффективной передачи энергии в определённых участках электромагнитного спектра имеются атмосферные ограничения, исследователи сосредоточились на частотах микроволнового, миллиметрового и оптического диапазонов. Хотя у микроволновых частот есть небольшое преимущество в эффективности, для них нужны антенны покрупнее. Поэтому для многих задач миллиметровые или оптические каналы передачи предпочтительнее.

Для систем, в которых используются микро- и миллиметровые волны, в передатчиках обычно применяются твердотельные электронные усилители, а также фазированные антенные решётки, антенны параболические или из метаматериалов. В приёмнике микро- или миллиметровых волн используется элементная решётка-ректенна, то есть выпрямляющая антенна. Это слово указывает, как в каждом элементе электромагнитные волны преобразуются в электрическую энергию постоянного тока.

В любой системе, предназначенной для оптической передачи энергии, скорее всего, будет использован лазер с жёстко ограниченным пучком, например волоконный лазер. Приёмники для оптической передачи энергии — это специальные фотоэлементы для высокоэффективного преобразования фиксированной длины волны света в электроэнергию. Их КПД может превышать 70% (более чем в два раза выше, чем у элемента солнечной батареи).

Мы в Научно-исследовательской лаборатории ВМС США почти 15 лет изучали различные варианты передачи энергии и их возможное применение. Это увеличение продолжительности полёта и грузоподъёмности дронов, питание находящихся в темноте орбитальных спутников и луноходов на тёмной стороне Луны, отправка энергии из космоса на Землю и т. д.

Так что устройство для передачи в узком пучке большого количества энергии по воздуху вполне может сойти за бластер. Это подводит нас к сути важнейшего фактора: плотности мощности. Теоретически возможны различные плотности мощности — от слишком низкой и потому бесполезной до достаточно высокой и опасной. Но между этими двумя крайностями можно найти золотую середину. А кроме того, есть разумные способы не допускать опасного применения пучков с высокой плотностью мощности. Именно этим и занималась моя команда в 2019 году и с тех пор успешно продвинулась в своей работе.

В компании одного из наших партнёров, PowerLight Technologies (бывшая LaserMotive), уже более 10 лет разрабатываются лазерные системы передачи энергии. В 2009 году её признали победителем в конкурсе NASA Power Beaming Challenge. В этой компании не только добились успехов в питании роботов-скалолазов, квадрокоптеров и летательных аппаратов с неизменяемой геометрией крыла, но и глубоко изучили проблемы безопасной передачи энергии с использованием лазеров. Это ключевой момент, потому что во многих исследовательских группах годами экспериментируют над передачей энергии с помощью лазера, в том числе в командах Научно-исследовательской лаборатории ВМС, Киндайского университета, Пекинского технологического института, Колорадского университета в Боулдере, Японского агентства аэрокосмических исследований, компании Airbus и др., но мало кому удалось сделать её по-настоящему безопасной при любых правдоподобных обстоятельствах.

На этой диаграмме показаны пиковые уровни мощности и расстояния, достигнутые в 11 проведённых с 1975 по 2021 год экспериментах по передаче энергии с использованием как микроволн (синим цветом), так и лазеров (красным). Рекорд пиковой мощности установлен в 1975 году (вверху). В 2021 году автор с коллегами занял второе и третье места по пиковому уровню мощности, передав более 1 кВт на расстояние более километра и использовав гораздо меньшие антенны.

Пожалуй, самый впечатляющий (до попытки нашей команды) эксперимент по безопасной передаче энергии с помощью лазера провели в 2012 году в компании Lighthouse Dev. Демонстрируя безопасность этой системы, ведущий научной программы на BBC Bang Goes the Theory («Проверь теорию на прочность») подставил своё лицо под пучок энергии, посланный между зданиями Мэрилендского университета. В этом конкретном эксперименте учитывался тот факт, что некоторые длины волн инфракрасного диапазона на порядок безопаснее для глаз, чем волны других частей инфракрасного спектра.

Эта стратегия применима для относительно маломощных систем. Но по мере повышения уровня быстро достигаются значения плотности мощности, при которых возникают угрозы безопасности вне зависимости от используемой длины волны. И что из этого? А то, что в этом система, продемонстрированная нами, отличается от других. При отправке более 400 Вт на расстояние свыше 300 м пучок был заключён в виртуальную оболочку, способную распознать сталкивающийся с ней объект и отключить питание оборудования основного пучка до причинения какого-либо вреда. В другом эксперименте показано, что расстояние, на которое передаётся энергия, может превысить километр.

При тщательном тестировании (без привлечения ведущих научной программы BBC), к нашему удовлетворению, пригодность этой функциональности подтвердилась. К тому же она прошла проверку качества в комиссии по безопасности лазеров ВМС. В ходе нашего эксперимента система показала себя ещё лучше: птицы не единожды летели к пучку и отключали его, но лишь на мгновение. Дело в том, что в системе отслеживаются объём, который занимает пучок, и его ближайшее окружение. Это позволяет автоматически восстановить канал передачи, когда путь снова свободен. Это как датчик безопасности гаражных ворот, когда сервомотор двери отключается при возникновении препятствия на пути движения ворот.

Надо признать: те 400 Вт, которые нам удалось передать, — небольшое количество, но их оказалось достаточно, чтобы сварить кофе.

Во время наших экспериментов наблюдатели могли ходить между передатчиком и приёмником без предохраняющих от лазерного излучения очков или каких-либо других мер предосторожности. Ведь мы не только позаботились о возможности автоматического отключения системы, но и учли вероятные эффекты отражений от приёмника или рассеяния света от взвешенных частиц в воздухе по всей длине пучка.

На этих трёх изображениях вверху показана большая белая параболическая антенна, посредине — золотистый квадрат, а внизу — высокая металлическая башня. В прошлом году автор с коллегами провёл эксперимент на испытательной установке армии США в Блоссом-Пойнте к югу от Вашингтона, округ Колумбия. Они использовали микроволны с частотой 9,7 ГГц для передачи 1649 Вт (пиковая мощность) от передатчика, оснащённого параболической антенной диаметром 5,4 м (вверху), на расстояние 1046 м до «ректенны» размером 2 х 2 м (посредине), установленной на башне (внизу), в которой пучок преобразовывался в электрическую энергию.

Повторимся: те 400 Вт, которые нам удалось передать, — небольшое количество, но их оказалось достаточно, чтобы, следуя модной в этом направлении исследований традиции приготовления какого-нибудь горячего напитка, сварить кофе. Эту традицию ввели японские исследователи, которые в 2015 году приготовили себе чай.

Наша следующая цель — применить передачу энергии с полностью интегрированной безопасностью к мобильным платформам. Для этого мы надеемся увеличить расстояние и количество передаваемой энергии.

Но мы не одиноки: в других правительствах, крупных компаниях и стартапах по всему миру работают над разработкой собственных систем передачи энергии. Япония уже давно лидирует в области передачи энергии с помощью микроволн и лазеров, а Китай, как и Южная Корея, сократил отставание, а может, даже вырвался вперёд.

В сфере бытовой электроники много игроков: Powercast, Ossia, Energous, GuRu, Wi-Charge и др. А в транснациональном технологическом гиганте Huawei ожидают появления технологии передачи энергии для зарядки смартфонов в течение «двух или трёх поколений (телефонов)».

Что касается промышленного применения, то в таких компаниях, как Reach Labs, TransferFi, MH GoPower и MetaPower, передачу энергии успешно используют при решении сложной проблемы хранения заряжённых и готовых к работе батарей для роботов и датчиков на складах и в других местах. На сетевом уровне в Emrod и других компаниях пытаются масштабировать передачу энергии, вывести её на новые высоты.

На фронте НИОКР в прошлом году наша команда протестировала безопасную беспроводную передачу энергии с помощью микроволн на 1,6 кВт мощности и на расстояние километра. В II-VI Aerospace & Defense, Peraton Labs, Lighthouse Dev и других компаниях тоже недавно добились впечатляющих успехов. Сегодня амбициозные стартапы Solar Space Technologies, Solaren, Virtus Solis и др., работающие в этом направлении негласно, стараются первыми осуществить передачу энергии из космоса на Землю.

По мере демонстрации рекордных результатов по части безопасности и приводиться убедительные аргументы в пользу полезности их систем, мы, вероятно, увидим совершенно новые архитектуры для передачи энергии с места на место. Представьте себе дроны, способные летать бесконечно долго, и электрические устройства, не требующие подключения к сети — никогда — и способные обеспечить людей энергией в любой точке мира, когда местная электросеть подвергается воздействию ураганов или других стихийных бедствий. Снижение потребности в транспортировке топлива, батареях или других видах накопленной энергии будет иметь далеко идущие последствия. Это не единственный вариант, когда нет возможности тянуть провода. Но мы с коллегами ожидаем, что в связи с таким выбором всевозможных технологий передача энергии для обеспечения электричеством отдалённых мест пойдёт очень хорошо.

Не стоит на месте и наша наука. В конце 2018 года российская «Оптоэнерготрейд» разработала технологию зарядки БПЛА энергией, переданной по лазерному лучу. А мы поможем прокачать ваши навыки или с самого начала освоить профессию, актуальную в любое время:

Выбрать другую востребованную профессию.


ссылка на оригинал статьи https://habr.com/ru/company/skillfactory/blog/668904/

Как поживает Firefox?

Популярный (во всяком случае, какое-то время назад) браузер Mozilla, который создатели позиционируют как решение с высоким уровнем конфиденциальности, переживает кризис. В статье мы попробуем поразмыслить, как те или иные «повороты» в судьбе браузера могут повлиять на будущее интернета.

В конце 2008 года Firefox был на высоте. 20% из 1,5 миллиардов пользователей Интернета я навигации в сети предпочитали браузер Mozilla. В Индонезии, Македонии и Словении более половины всех выходящих в сеть пользовались Firefox. «Наша доля рынка в вышеперечисленных регионах росла огромными темпами», — писал в блоге Кен Коваш, бывший руководитель отдела аналитики данных в Mozilla. Спустя 15 лет ситуация перестала быть такой радужной.

Совокупная доля браузера сократилась до 4%, а непосредственно на мобильных устройствах она составляет жалкие 0.5%. «Оглядываясь на пять лет назад, анализируя нашу долю рынка и показатели, которые мы публиковали, мы не можем отрицать спад», — говорит Селена Декельманн, старший вице-президент Firefox. Собственная статистика Mozilla показывает, что с начала 2019-го и до 2022 года число ежемесячно активных пользователей снизилось примерно на 30 миллионов. «В последние пару лет мы наблюдаем довольно существенную стагнацию», — добавляет Декельманн.

За два десятилетия, прошедшие с момента выхода Firefox из тени Netscape, компания успела многое сделать для формирования концепции конфиденциальности и безопасности в Интернете. Сотрудники компании всегда продвигали идеи повышения прозрачности сети и усовершенствования стандартов. Но, как это часто бывает, за последние годы команда Firefox пережила уже два раунда увольнений и кадровых перестановок. А в следующем году истекает срок действия выгодного соглашения с Google, которое обеспечивает большую часть доходов компании. К тому же пользователям есть, из чего выбирать: на рынке появилось множество хороших браузеров, ориентированных на конфиденциальность. А всевозможные недоработки и шероховатости в новых функциях грозят оттолкнуть даже преданных пользователей Firefox. Все это заставило аналитиков и бывших сотрудников компании задуматься о будущем браузера.

От того, как сложится судьба Firefox, будет зависеть будущее всего интернета. В течение многих лет он был главным соперником Google Chrome и представлял из себя достойную альтернативу «самому популярному браузеру в мире». С момента своего выхода в 2008 году Chrome стал буквально синонимом интернета: им пользуются около 65% всех пользователей сети и он оказывает огромное влияние на то, как люди в принципе воспринимают интернет. Когда Google запустила технологию AMP, веб-сайты бросились ее внедрять. А планы по замене внешних файлов cookie в Chrome — шаг, который затронет миллионы маркетологов и веб-издателей — идут на руку имиджу Google в целом.

«Chrome выиграл битву настольных браузеров», — говорит один из бывших сотрудников Firefox. Увы, надежды на возрождение былого величия Firefox невелики. «Сейчас Firefox не стоит рассчитывать на возвращение хоть какой-то доли на рынке браузеров». Другой бывший сотрудник Mozilla также считает, что Firefox не восстанет из пепла, и с этим придется просто смириться.

С Google у Mozilla сложные отношения. Ведь, несмотря на конкуренцию, они еще и деловые партнеры. Каждый год Google выплачивает Mozilla сотни миллионов долларов в виде роялти. По некоторым данным, эта цифра в настоящее время составляет около 400 миллионов долларов в год — плата за то, что поисковая система Google устанавливается по умолчанию в Firefox. Согласно данным финансового отчета за 2020 год, общий доход Mozilla составляет 496 миллионов долларов, при этом роялти от поисковых сделок составили 441 миллион долларов. У Firefox есть и другие партнеры по поисковым системам по умолчанию, например, Яндекс (примечение: хотя в последнее время здесь есть ряд сложностей, Firefox номинально более не поддерживает поисковик Яндекс в нативном виде), и эти отчисления тоже чрезвычайно важны для компании.

Срок соглашения между Google и Mozilla истечет уже в 2023 году. Статистика показывает, что за время действия этого соглашения доля рынка Firefox снизилась примерно на 1%. По собственным данным компании, количество ежемесячно активных пользователей остается стабильным и сейчас составляет около 215 миллионов человек. Однако нет никакой гарантии, что Google продлит соглашение на тех же условиях. При этом Mozilla не раскрывает детали договоренностей со своими партнерами и не сообщает, ведутся ли переговоры с Google. Судя по финансовым декларациям Mozilla за 2020 год, несмотря на увольнения, компания в норме, а по итогам 2021 года ожидает увеличения доходов.

Однако Mozilla и Firefox признают, что для развития им необходимо диверсифицировать способы получения прибыли. С 2019 года компания стала прилагать больше усилий в этом направлении. В частности, в распоряжении компании есть сервис Pocket с платной премиум-подпиской. Mozilla запустила два VPN-продукта, также доступных по подписке. Кроме того, компания все больше продвигает рекламу, размещаемую на новых вкладках Firefox.

Совокупный доход Mozilla от подписки и рекламы вырос с 14 миллионов долларов в 2019 году до 24 миллионов долларов в 2020 году, и в компании ожидают, что новые продукты принесут еще порядка 14% доходов. Независимость от Google — ключ Mozilla к «более здоровой» бизнес-модели. Однако некоторые бизнес-решения уже не оправдали себя, а другие могут показаться противоречащими стремлению Firefox к конфиденциальности. Например, служба обмена зашифрованными файлами, закрытая после того, как ее использовали для распространения вредоносного ПО. Или показ рекламы в адресной строке.

Необходимость поиска новых источников дохода возникла именно тогда, когда Firefox столкнулась с небывалой конкуренцией на рынке браузеров. «Многие браузеры в своем брендинге используют концепцию конфиденциальности, — говорит Лурдес Турреча, основатель Rise of Privacy Tech. Конкуренты Chrome стремятся выгодно отличаться от него тем, что не собирают данные о вашей истории посещений и не отслеживают, что вы делаете в Интернете».

По уровню защиты конфиденциальности Firefox не уступает своим коммерческим конкурентам. «Главное в Firefox — это его расширяемость», — говорит Джона Арагон, системный администратор Privacy Guides. «В нем немало возможностей для обеспечения конфиденциальности. Пусть они и не включены по умолчанию, по крайней мере, они у вас есть, и вы можете активировать их при необходимости».

Помимо основного браузера Firefox для Android и iOS, Mozilla также предлагает решение Focus, которое по умолчанию обеспечивает повышенную защиту данных. (По мнению Деккельманн, сценарии использования браузеров отличаются, и слияния приложений в единый продукт не произойдет. Несмотря на то, что Firefox активно соревнуется с другими ориентированными на конфиденциальность браузерами, этот набор функций он «позаимствовал» у конкурентов. Например, впервые по умолчанию блокировать сторонние файлы cookie, начал Safari.

Это подтверждает опасения по поводу дальнейшего развития Firefox. Бывшие сотрудники говорят, что Mozilla стоит придерживаться четкой стратегии развития своего ключевого браузера. «По сути, это браузер, оптимизированный под актуальные требования безопасности и конфиденциальности. Однако компания пытается выжать из него как можно больше прибыли, а не улучшить реальную фукциональность», — говорит один из бывших сотрудников, приводя в качестве примера противоречивых приоритетов компании рекламу в строке поиска.

«Однажды потерянные пользователи вряд ли вернутся, пока у них не появится веская причина для этого. Но чем их можно замотивировать?» — задается вопросом Барт Виллемсен, вице-президент по аналитике, специализирующийся на вопросах конфиденциальности в компании Gartner. По словам Виллемсена, он пользуется Firefox с первых дней его существования. «Я думаю, что перед Firefox действительно стоит задача найти уникальное решение — не только в маркетинговых заявлениях, но и в самом продукте — и двигаться в одном направлении», — говорит он.

Для Деккельманн ключевым фактором является повышение персонализации Firefox. По ее мнению, это подразумевает попытку увеличить функциональность браузера, чтобы он соответствовал требованиям людей, которые теперь проводят в интернете много времени. «Сейчас управлять всей этой информацией практически невозможно», — говорит Декельманн. Например, в прошлом году Firefox изменил свою домашнюю страницу, чтобы люди могли вернуться к предыдущим поискам и статьям. Компания изменила дизайн своего приложения для Android и добавила функции менеджера паролей в приложение Firefox. 

Декельманн говорит, что Firefox, скорее всего, продолжит искать способы персонализации онлайн-серфинга. «Я не уверена, что результат этой работы будет соответствовать ожиданиям пользователей, но ни в коем случае нельзя забывать об их предпочтениях и приоритетах», — говорит она. Недавно Firefox объявил о партнерстве с Disney в рамках одного из новых проектов Pixar. Так, прямо в браузере пользователи смогут выиграть подписку на Disney+. Пускай эта акция и выглядит вполне безобидно, по факту это прямое вмешательство в конфиденциальность процесса работы в интернете.

Декельманн добавляет, что для успеха Firefox не нужно быть таким же популярным, как Chrome или Safari. «Все, чего мы действительно хотим, — это быть жизнеспособной альтернативой», — говорит она. «Мы считаем, что разнообразие делает Интернет лучше для всех».

Сегодня на рынке браузеров доминирует кодовая база Chromium от Google и ее браузерный движок Blink, компонент, который превращает код в визуальные веб-страницы. Браузер Edge от Microsoft, Brave, Vivaldi и Opera используют адаптированные версии Chromium. Apple заставляет разработчиков использовать свой браузерный движок WebKit на iOS. Gecko от Firefox является единственной существующей на рынке реальной альтернативой.

«Этому миру нужно разнообразие, — говорит Виллемсен. Если доля Firefox еще сильнее уменьшится, у Chrome станет меньше конкурентов». «Это разнообразие необходимо для обеспечения стандартов открытого интернета и предотвращения появления монополий». Все, с кем мы беседовали в рамках подготовки этой статьи, как внутри, так и за пределами Mozilla, сходятся во мнении, что развитие Firefox делает Интернет лучше. Сложность заключается лишь в том, чтобы понять, как добиться этого развития..


ссылка на оригинал статьи https://habr.com/ru/company/ispsystem/blog/668916/

Темные фабрики — больше, чем укрощение машин

Работая над переводом о нереалистичности межпоколенческих кораблей для межзвездных путешествий, я задумался о том, что, с точки зрения фантастов, самые страшные ипостаси искусственного интеллекта – это безликие всемогущие «сверхсервера». Таковы и HAL 9000 из «Космической Одиссеи 2001», и «Мама» из Чужих, и «Zed-10» из Крепости, и «Скайнет», и сама «Матрица». Иными словами, могущество робота, управляющего легионами других роботов и попутно способного легко эти легионы пополнять, значительно страшнее, чем возможности Терминатора или, скажем, марсианского треножника. Особенно в таком закрытом и автономном пространстве, как космический корабль.

Думаю, что мотив «пугающей автономности» был намеренно вброшен и в финальные битвы обоих первых «Терминаторов» — как первая, так и вторая серия заканчиваются на темных чермет-заводах, которые продолжают исправно функционировать на протяжении всей развязки, выступая идеальной мизансценой для схватки с мыслящими машинами. Поэтому сегодня я предлагаю обсудить технологический тренд, уже получивший броское маркетинговое название «lights-out manufacturing» (производство с выключенным светом), что пытаются переводить на русский язык как «темные фабрики». Я остановлюсь на переводе «безлюдные производства» и рассмотрю, почему этот тренд действительно перспективен, но пока плохо воплотим в реальности.

Многие аспекты проблемы рассмотрены в проекте «Робосфера», которому посвящен этот репозиторий на Github.

Не вызывает сомнения, что человек увлекается прослеживанием трендов, а тем более – их экстраполяцией. Начало одному из таких трендов дала Промышленная революция, начавшаяся в Англии в XVIII веке и ознаменовавшая новую эру в производстве. Изготовление товаров пошло гораздо быстрее, причем, для ускоряющегося производства изделий требовалось все меньше и меньше рабочих рук.

Этот тренд продолжается и сегодня, но примерно в 1980-е в нем наметился новый принципиальный переход. Тогда пост CEO в компании General Motors занял Роджер Смит, и GM стали вкачивать в автоматизацию производства все более серьезные средства: $6 миллиардов в 1983, $9 миллиардов в 1984 и $10 миллиардов в 1985. Роджер Смит продвигал идею полностью автоматизированных заводов, которые в целях экономии могли бы функционировать не только без персонала, но и без освещения. Вероятно, такая идея зародилась именно на машиностроительном гиганте, так как сборка автомобилей – выраженно конвейерная работа, которая, к тому же, хорошо алгоритмизируется. Одновременно с этим GM был такой компанией, которая могла позволить себе масштабный НИОКР без скорой отдачи. Эта работа выявила как возможности, так и препятствия на пути к полной автоматизации. В частности, очертилась потребность в развитии умных датчиков, киберфизических систем и машинного обучения. Уже даже появилась шутка: «на фабрике будущего потребуется всего двое живых существ: сторожевая собака и человек, который будет ее кормить». Тем не менее, тема вахтового или удаленного обслуживания полностью безлюдных производств резко актуализировалась после пандемии COVID-19 и прочно перешла в практическую плоскость.

Примеры

Рассмотрим некоторые примеры успешной замены людей роботами на производстве. Так, у Philips в Нидерландах есть завод по производству электробритв. где работают в основном машины. На заводе занято всего 9 человек, их задача – обеспечение качества.

Компания Ocado, занимающаяся продовольственными и потребительскими товарами, также смогла серьезно выиграть от роботизации бизнеса, но в ее случае автоматизация затронула не конвейер, а склад. Манипуляторы-роборуки отлично справляются с отбором и упаковкой товара, перемещением коробок, а вся перевозка в цеху выполняется автономными тележками.    

Еще один пример такого умного производства – японская компания Hirotec (производит печатные формы). Ее руководители решились на полную автоматизацию, чтобы свести к минимуму простои, обходившиеся компании по $361 в секунду. Поэтому была внедрена совокупность технологий, важнейшими среди которых являются «интернет вещей» (IoT), облачные технологии, а также множество небольших серверов, обслуживающих цеха. В результате на этом производстве удалось на 100% исключить контроль работы в ручном режиме.

Наконец, наиболее удачный опыт полной автоматизации сегодня достигнут в компании Fanuc. Это японская фирма, производящая роботов, а также коботов (коллаборативных роботов – машины, которые могут работать на одной сборочной линии с людьми). Завод Fanuc может работать в полностью автономном режиме в течение до 600 часов. Люди появляются там для технического обслуживания примерно раз в месяц, но не занимаются ни сборкой, ни перемещением комплектующих по заводу.

Такая степень автоматизации ожидаемо пробуждает старинные луддитские страхи – а что делать, если роботы займут все рабочие места? Но пример FANUC скорее развенчивает эти страхи. Полностью автоматизированная фабрика становится полигоном для отработки взаимодействий коботов, а кобот отличается от традиционного промышленного робота тем, что представляет для человека гораздо меньшую опасность. Поэтому коботов можно располагать на сборочных линиях в большом количестве, не опасаясь, что они травмируют людей. Упрощается и сам процесс эксплуатации таких роботов, упрощаются их пользовательские интерфейсы и даже возможности их программирования и настройки. Тем не менее, полная автоматизация в настоящее время представляет собой НИОКР-изыск и лишь одну из перспективных стратегий для предприятий с длительным и ровным производственным циклом. Ниже сосредоточимся на обсуждении недостатков безлюдных производств, а также на характерных точках роста этой интереснейшей отрасли.    

Так почему нет?

Несмотря на заинтересованность в полной автоматизации и оптимистичные примеры, приведенные выше, технологии для умного производства по-прежнему не успевают за спросом. Основные технологические узкие места связаны с разработкой датчиков, сетей связи, а также скорости отклика машин (желательно – в режиме реального времени). Все эти барьеры мы подробнее рассмотрим ниже, но они оказались настолько серьезными, что некоторые компании, например, «Тойота», уже возвращают рабочих на ранее автоматизированные производства. Уже стало мемом знаменитое выражение Илона Маска «humans are underrated» («люди недооценены»), которое он употребил в знаменитом твите от 2018 года, звучавшем так: «Да, чрезмерная автоматизация на заводе Tesla была ошибкой. Уточню: моей ошибкой. Люди недооценены». Оказалось, что при автоматизации сборочной линии процессы чрезмерно унифицируются, поэтому падает качество каждого отдельного узла. Контроль качества также остается сугубо человеческой зоной ответственности.

В финансовом отношении роботизированная линия действительно обходится дешевле, чем обслуживаемая людьми. Но именно этап внедрения роботов зачастую оказывается неподъемно дорогим, особенно для малого узкоспециализированного предприятия. Даже если вынести за скобки техническое обслуживание, большинство машин ориентированы именно на человеко-машинные взаимодействия – использовать и ремонтировать машины будет именно человек. Соответственно, значительная часть машины представляет собой пользовательский интерфейс, поэтому должна быть подогнана под антропометрические данные человека, а также обладать достаточной гибкостью и податливостью (не туго сидеть). Полностью безлюдные производства должны быть оснащены совершенно новым аппаратным и программным обеспечением, которое, к тому же, должно автоматически обновляться. Для самодостаточности таких систем потребовался бы огромный объем компьютерного моделирования и анализа данных – а эти навыки пока остаются сугубо человеческими, да и то очень сложными и дефицитными.  

Вообще, при всей привлекательности безлюдных производств с точки зрения экономии средств и энергии, на практике недостатки темных фабрик пока сильно перевешивают их достоинства. Некоторые задачи, особенно «длинные» производственные процессы уже сейчас могут отлично выполняться на сборочных линиях без участия человека. Но пока роботы не в состоянии собирать крупные узлы, содержащие большое количество точно подогнанных мелких деталей, а также выходят из строя при неблагоприятных условиях окружающей среды – например, перегреваются. Современные роботизированные системы не в состоянии учиться на ошибках и распознавать собственные «косяки», из-за чего эти дефекты могут быстро накапливаться в пределах сборочной линии. Соответственно, участие человека требуется не только для контроля качества, но и для контроля окружающей обстановки, а также для экстренного отключения линии. Поэтому в развитии обозначенного тренда на полное исключение человека из производственной цепочки намечается развитие трех составляющих, о которых мы поговорим ниже:

  1. Распознавание (детализация) образов и машинное зрение

  2. Связь

  3. Материалы

Распознавание образов

Системы машинного зрения сейчас получили новый импульс развития, поскольку незаменимы в беспилотных летательных аппаратах. Камеры дрона должны хорошо определять в динамике не только расстояние до объекта или, например, зарядной станции – но и узнавать цвет, блеск объекта, находить на нем метки, позволять дрону обходить препятствия. Кроме того, камера должна отсеивать «сигнал» от «шума» и приспосабливаться к меняющемуся освещению. Зачастую дроны используются для сбора и схвата (мелких) предметов – и в этом отношении уже функционально сближаются со «зрячими» промышленными роботами. Робот должен выполнять операции из разряда «взять и поставить», обслуживать станки и даже совершать столь сложные операции как извлечение деталей. Основная сложность при этом – на каждой итерации рабочего цикла та деталь, что подается роботу на обработку, должна находиться в строго определенном месте и иметь выверенную ориентацию. Поэтому конвейер нужно оснащать дополнительным тщательно подогнанным оборудованием, держателями, направляющими – чтобы максимально исключить фактор случайности. Ситуация тем более осложняется, если производственный цикл проходит от начала до конца очень быстро, если изделие кастомизируется (то есть, его оснащение и набор деталей может варьироваться), либо если на обработку роботу должны поступать сразу несколько типов объектов, в разной ориентации.

В настоящее время все эти проблемы в принципе решаемы при помощи машинного зрения, то есть, умных камер, которые можно условно разделить на три категории: 2D, 3D и 2,5D.   

2D-камеры – самые дешевые, как правило, определяют длину и ширину, но не высоту. 3D-камеры позволяют роботу видеть практически «по-человечески» и учитывать не только габариты объекта, но и его возможное вращение. 2,5D-камеры занимают промежуточное положение и хороши тем, что могут сравнивать различные объекты по высоте или по другой координате, что очень важно в случаях, когда предметы нужно ставить друг на друга – определять, какие из них «большие», какие «маленькие» и какие «помещаются друг в друга».  

Представляется, что машинное зрение уместнее применять не на сборочных линиях, а при изготовлении деталей методом 3D-печати. Такие операции легче алгоритмизируются средствами машинного обучения, а также могут быть детально смоделированы в симуляционной среде перед реальным использованием.     

Связь

Современные технологии передачи данных в робототехнике в основном реализованы в радиочастотном диапазоне. Теоретически скорость передачи данных в этом диапазоне может достигать 1300 Мб/c, но на практике она падает вдвое и более. Из-за этого возникают узкие места, и без вмешательства человека линия начинает пробуксовывать.

Кроме того, есть и фактор безопасности. Радиочастотные сети уязвимы перед удаленным взломом, и злоумышленнику не составит труда организовать утечку данных или катастрофический отказ оборудования. Легко представить, насколько опасна может быть такая атака, например, на нефтеперерабатывающем или химическом производстве.

Скорость передачи данных можно повысить, например, заменив сети 4G на 5G, но дальность передачи сигнала все равно остается небольшой (и безлюдный завод потребовалось бы оборудовать целой сетью ретрансляторов), а проблемы безопасности при переходе на 5G никак не решаются. Возможным перспективным решением для безлюдных производств представляется технология LiFi – при которой для передачи информации используются не радиоволны, а свет.

LiFi – это технология беспроводной передачи информации, при которой вместо радиоволн в качестве носителя данных используется видимый свет. Технология подразумевает активное использование светодиодов, которые могут обмениваться пучками света примерно по тому же принципу, по которому чередуются точки и тире в коде Морзе. Но частота обмена световыми сигналами гораздо выше, для человеческого глаза дискретность таких импульсов просто незаметна.

LiFi позволяет радикально повысить скорость обмена информацией между машинами – до 100 Гб/с. Полоса передачи данных при этом значительно шире, чем при использовании конкретной радиочастоты (задержки при передаче данных сводятся почти до нуля). Практически отсутствует интерференция, поскольку в пределах видимого спектра можно быстро и точно варьировать длину волны в зависимости от информационной нагрузки передаваемого сигнала.  

Свет, в отличие от радиоволн, не проникает сквозь стены, что коренным образом повышает степень защищенности такой коммуникации. Фактически, чтобы перехватить сигнал, хакеру придется физически проникнуть в цех. В то же время, сетевые протоколы шифрования и аутентификации легко адаптировать к передаче информации в видимом спектре.

Но при всей перспективности внедрение LiFi требует капитальных начальных вложений, в первую очередь – на разработку и адаптацию протоколов и на конструирование аппаратного обеспечения. Возможно, технология сначала оправдает себя в некоторых производствах, например, в нефтехимическом, где особенно важно исключить интерференцию и образование статического электричества.

Некоторые соображения о материалах

Подбор материалов для безлюдного производства также требует учитывать факторы, не являющиеся критичными при выполнении задач человеком. Например, на обработку роботу лучше давать сравнительно мягкие материалы, при взаимодействии с которыми рабочие инструменты робота (выполняющие монотонную работу) будут не так быстро изнашиваться – ведь робот не умеет «дозировать усилие» или «бережно относиться» к инструменту. Иными словами, именно человек должен предусмотреть, чтобы робота можно было поставить на пятичасовую смену, и он доработал ее до конца, а не остановился из-за того, что у него преждевременно износилась режущая кромка. При этом рабочие инструменты самого робота не должны быть слишком жесткими – ведь только по окончании смены мы узнаем, что он наштамповал кучу деталей, не соответствующих спецификации, впустую потратив и время, и заготовки.

Другой важный аспект – допуски. Например, при допуске в 0,127 мм и использовании проверенных материалов вполне можно поручить изготовление детали роботу, но этого определенно нельзя делать при допуске 0.0127 мм или ниже.

Кроме того, независимо от используемых материалов, чем ниже допуск – тем сильнее износ инструмента. Если мы вытачиваем детали с внешним диаметром 0,005 мм в течение 5 часов, то последняя партия деталей неизбежно получится более корявой, чем первая – из-за износа и перегрева инструмента прямо во время работы.

При подборе материала также нужно учитывать его физические свойства. Например, не подойдет металл, который оставляет острые осколки, способные засорить или заклинить механизм, длинную крепкую стружку, которая может обмотаться вокруг движущихся деталей робота. Не подходит материал, который искрит (а такое бывает, например, с титаном). Следует уделять особое внимание сочетанию материалов – чтобы робот случайно не поджег или не проплавил те детали, с которыми работает. На безлюдных производствах обязательно должна предусматриваться система бесперебойной вентиляции, а также организована контролируемая очистка инструментов в ходе работы и, потенциально – аварийная остановка работы в тот момент, когда инструмент только начинает затупляться, стачиваться или искрить.

Заключение

В этом кратком обзоре я постарался показать, что полностью безлюдные производства пока сталкиваются сразу с несколькими классами проблем, самыми важными среди которых мне кажутся оптическо-геометрические (различение деталей), эвристические (умение «понять», что производственный цикл сбился и может привести в лучшем случае к бракованной серии, а в худшем – к аварии), телекоммуникационные и аппаратные. Большинство из очерченных проблем пока достаточно сложно смоделировать в симуляционной среде или предусмотреть и предотвратить на протяжении производственного цикла, длящегося хотя бы несколько часов кряду. Тем не менее, опыты создания безлюдных производств кажутся весьма интересными для развития киберфизических систем, 3D-печати, разработки новых стандартов связи, моделирования нештатных ситуаций и потенциального развития таких опасных производств, находиться на которых человеку противопоказано.  


ссылка на оригинал статьи https://habr.com/ru/post/668918/