Адрес для входа в РФ: exler.bar

Я бы эту новость и перепечатывать не стал - о разработках неинвазивных глюкометров время от времени сообщается давно, а серийных устройств до сих пор как не было, так и нет, - однако здесь утверждается, что вот прямо-таки завод уже строится, и что с 2023 года начнут выпускать серийно.

Данный глюкометр уровень сахара определяет по слюне. Что звучит совсем странно, конечно. Мне не очень понятно, как по слюне вообще можно определить уровень сахара в крови. Но в заметке говорится именно это.

Физик Пол Дастур из Университета Ньюкасла создал биосенсор для диагностики уровня сахара в крови. В отличие от существующих методов, его прибор не требует болезненного прокалывания пальца, что позволит улучшить качество жизни сотням миллионам людей с диабетом по всему миру.
Тест на диабет

Идея создания подобного устройства пришла к Полу, когда он заглянул на работу к своей жене. Она работает учительницей в начальной школе и вынуждена делать нескольким малышам болезненные уколы перед каждым приёмом пищи. Так Пол узнал, что больше 460 миллионов человек по всей планете регулярно проверяют свой уровень глюкозы. Результатом многолетних исследований стал биосенсор, похожий на пластинку жевательной резинки. Он способен проводить диагностику сахара на основе слюны человека.

Главное, что это не очередная разработка, которая не пойдёт дальше подобных новостей. Строительство фабрики по массовому производству биосенсора стартует уже в текущем году, а первые датчики сойдут с конвейера в 2023-м. Автор проекта уверяет, что в будущем биосенсор можно использовать для анализа 130 различных показателей, в том числе онкомаркеров, гормонов и различных аллергенов. Кроме того, он может стать основным инструментом для диагностики коронавируса. С этой целью были подключены исследователи из Института биологической инженерии Висса при Гарвардском университете. (Отсюда.)

Читаю новость о том, что в "Яндексе" создали "не имеющую аналогов в мире технологию автоматического перевода видеороликов".

«Яндекс» создал технологию машинного перевода видео. С ее помощью видеоролики зарубежных авторов смогут посмотреть даже те, кто не владеет иностранными языками – разработка «Яндекса» в автоматическом режиме переведет видео на русский язык и озвучит его закадровым голосом. Об этом CNews рассказали представители компании. По заявлению создателей, технология не имеет аналогов в мире.

На сегодняшний день у «Яндекса» готов прототип системы машинного перевода. Сейчас он работает только с роликами на английском языке. Разработчики утверждают, что опробовали технологию на видеозаписях на самые разные темы: изменение климата, машинное обучение, история Плутона.

Пользователям функция машинного перевода видеороликов доступна в фирменном браузере «Яндекса» для операционных систем Windows и macOS, однако лишь при просмотре ограниченного числа роликов. Специалисты компании создали на Youtube-канале "Yet another browser" подборку из 12 видео (плейлист «Перевод видео»), с помощью которых любой желающий сможет убедиться в работоспособности технологии. В ближайшее время пользователи получат возможность самостоятельно выбирать, какие именно ролики переводить, обещают в «Яндексе».

Над созданием прототипа работало несколько команд. Сейчас в нем применяются технология синтеза речи, разработки «Яндекс.переводчика» и биометрия. Последняя используется для определения пола говорящего – это, как отмечают в «Яндексе», важно и для перевода, и для синтеза речи, в частности, позволяет подобрать подходящий голос для закадровой озвучки.

Технология «Яндекса» поддерживает синхронизацию закадрового голоса с видеорядом, при необходимости корректируя темп речи виртуального переводчика и добавляя в нее паузы. Синхронизация необходима, поскольку исходные и переведенные реплики могут значительно отличаться по длительности – например, в английском языке часто используемые фразы нередко лаконичнее своих русских аналогов.

Для тех, кто внимательно следит за тем, что происходит в мире машинных переводов, все это звучит совершеннейшей фантастикой. Обычные-то текстовые переводчики пока, мягко говоря, далеки от совершенства (хотя нельзя не признать, что с каждым годом они работают все лучше и лучше - благодаря нейросетям), а уж автоматическое воспроизведение текста голосом - это все слушается очень криво.

А тут нам утверждают, что они научились не только распознавать голос в ролике, не только качественно переводить его на другой язык, но и озвучивать на другом языке? Мне в это верится с большим трудом.

Компания предлагает послушать типа как "образцы работы технологии". Сделать это можно только в Яндекс.Браузере, для чего я его поставил, в нем в Yotube открыть плейлист "Перевод видео", и там можно включить перевод.

Для тех, кому не хочется со всем этим возиться - ставить Яндекс.Браузер и так далее, - я заснял небольшой ролик о том, как это все работает.

Так вот. То, что я вижу и слышу в ролике - это даже рядом никакой не "автоматический перевод". Это перевод, явно сделанный профессиональным переводчиком и озвученный профессиональным актером (безусловно, живым человеком, это даже рядом не автоматическая озвучка, как в ридерах с такой функцией).

Ну и в чем юмор, ребята? Ну сделали вы войсовер для нескольких роликов, молодцы. Но на черта это выдавать за "автоматический перевод", когда там за версту понятно, что это никакой не автоматический перевод?

Если вы работаете над этой технологией, но пока вам нечего показать - ну так и напишите, что работаете, но показать пока нечего.

Если вы создали подобную технологию, она работает, и вы готовы ее продемонстрировать - ну так разрешите ее использовать для любых роликов, оговорив, конечно, что голос человека в ролике должен быть только один. Тогда хоть можно будет понять, что она собой представляет.

А так - вообще не пойми что. Показывать обычный войсовер в качестве "демонстрации технологии автоматического перевода" - это как-то очень и очень странно.

На выставке MWC в Барселоне показали новый смартфон Concept Phone 2021. Это концепт, что прямо-таки следует из названия, в серии он выпущен не будет, однако это полностью рабочая версия, и компания разослала несколько экземпляров данного смартфона известным техноблогерам.

Что интересного в этом смартфоне?

Во-первых, его задняя крышка может менять свой цвет.

Помимо уникального рисунка в виде надписи NOW, задняя крышка выполнена с применением электрохромной и электролюминесцентной технологий. Благодаря этому поверхность способна менять цвет. Например, при входящем звонке она меняется с серебристого на синюю, а во время зарядки центральная область заполняется зелёным и мигает.

Это любопытная история, конечно.

Во-вторых, смартфон поддерживает зарядку аж в 160 Ватт. Производитель заявляет, что с 0 до 100% смартфон зарядится за 10 минут.

На канале Tech Spurt это проверили, вот ролик. 10 минут не получилось, но получилось 13 минут 10 секунд - и это реально очень круто!

Сам смартфон в серию запущен не будет, но в компании сказали, что данные технологии будут использованы в каких-то других смартфонах компании.

Да-да, именно перелет, и это неимоверно круто!

Летающий автомобиль AirCar совершил первый в истории для подобного типа транспортного средства междугородный полёт.  

35-минутный полёт из Нитры в Братиславу был совершён 28 июня. Расстояние между этими городами составляет 96 км, что с учётом встречающихся населённых пунктов выливается примерно в 1 час езды на автомобиле. Лететь на автомобиле, как видим, почти вдвое быстрее. 

На видео также запечатлён процесс трансформации AirCar из самолётного состояния в автомобильное. Это занимает около трёх минут. 

В текущем виде AirCar Prototype 1 оснащается двигателем BMW мощностью 160 л.с. Имеется и парашют. Машина уже показала способность летать на высоте до 2500 м со скоростью до 190 км/ч.  

AirCar Prototype 2 получит двигатель мощностью уже 300 л.с. и сертификат EASA CS-23. Такой аппарат сможет двигаться в воздухе со скоростью до 300 км/ч при дальности полёта до 1000 км. (Отсюда.)

Ну и вот ролик трансформации и полета. Прям будущее уже здесь!

Давно слежу за этой историей - созданием культивируемого мяса, то есть не заменителя мяса на основе растительной пищи, а натурального мяса, выращенного из клеток животных. Раньше данный процесс был очень дорогим, и цена конечного продукта была совершенно неподъемной, но вот теперь сообщают о том, что разработчикам из Future Meat удалось снизить стоимость до $20 за килограмм, что уже более или менее приемлемо.

Израильский стартап Future Meat Technologies объявил о запуске первого в мире коммерчески жизнеспособного предприятия по производству искусственного мяса. Future Meat построил линию для быстрого изготовления крупных партий мяса — стартап предлагает своим клиентам курицу, свинину и баранину. До конца этого года продукты Future Meat появятся в американских ресторанах, а в следующем году их стоимость упадет до $2 за 100 граммов.

Культивируемое мясо Future Meat — это не искусственный заменить мясных продуктов, собранный из растительных ингредиентов. Компания берет за основу несколько клеток реальных животных, а затем стимулирует их рост в специализированных инкубаторах. На выходе появляются полноценные куски мяса, неотличимые по своей структуре от стандартных продуктов и не требующие убоя животных.
«С самого начала все наши усилия были сосредоточены на масштабировании производства и снижении затрат, чтобы мы могли получить коммерчески жизнеспособный продукт. История здесь заключается не в том, чтобы получить премиальный продукт. Речь идет о поиске альтернативного способа производства мяса», — объяснил гендиректор Future Meat Ром Кшук.

По словам Кшука, Future Meat удалось сократить стоимость получения искусственного мяса до $4 за 100 граммов — изначально производство было два раза дороже. И стартап не собирается останавливаться — в течение двух лет цена на продукты Future Meat упадет до $2 за 100 граммов. Таким образом компания обещает сделать покупку мяса без убоя не менее выгодным предложением, чем приобретение традиционного мяса.

Предприятие Future Meat универсально — стартап производит культивируемую курицу, свинину и баранину, а в ближайшем будущем начнет поставлять и говядину. Производственная мощность — 500 килограмм в день. Первый завод располагается в израильском городе Реховот, а второй может появиться в США — с этой целью стартап сейчас ведет переговоры с американскими регуляторами. Future Meat также обсуждает возможность поставок своих продуктов в американские рестораны, начиная с четвертого квартала 2021 года. (Отсюда.)

В издании Deep-Review.com - обзор умных весов Huawei Scale 3. Самое интересное в этом обзоре - подробное описание сути биоимпедансного анализа и того, какие именно параметры организма и каким образом эти (и другие) умные весы могут получать. Кому интересно знать, что это и откуда берется - почитайте.

Биоимпедансный анализ на Huawei Scale 3

На точность биоимпедансного анализа влияет множество факторов1, включая:

    Обезвоживание организма. Это увеличивает электрическое сопротивление тела и ведет к значительной переоценке процента жира
    Измерение после приема пищи или воды. Это может давать погрешность более 4% при измерении жира в организме
    Физическая активность перед взвешиванием. Умеренные упражнения снижают электрическое сопротивление тела. Например, взвешивание сразу после 90-минутного упражнения средней интенсивности может завысить безжировую массу на 12 кг. Поэтому взвешивание нужно делать спустя несколько часов после тренировок

Лучшее время для взвешивания — сразу после пробуждения. Таким образом вы исключаете многие негативные факторы.

Что касается непосредственно Huawei Scale 3, весы «измеряют» 11 показателей:

    Вес
    Индекс массы тела
    Доля жира
    Безжировая масса
    Скелетная мышечная масса
    Процент содержания воды в организме
    Белок
    Минеральный состав костей
    Уровень висцерального жира
    Базальный метаболизм
    Пульс

Слово «измеряют» написано в кавычках, так как в реальности весы измеряют при помощи электродов только один показатель — объем жидкости в организме (не считая пульса, который не имеет никакого отношения к составу тела).

Все остальные параметры вычисляются на базе этого показателя при помощи фирменного алгоритма Huawei TruFit.

Утверждается, что это самая большая в мире сферическая панорама Нью-Йорка. Увеличивайте масштаб при просмотре (колесом мышки или пальцами на смартфоне) - детализация там просто фантастически. Не очень понятно, как они вообще ухитрились это снять. .

Куда катится этот мир?! В Испании сделали робота для приготовления паэльи - "Robot that can cook a paella is causing quite a stir in Spain".

Этот робот, недавно представленный на выставке, производства компании br5 (Be a Robot 5 - это название робота из фильма "Короткое замыкание") демонстрировал, как он готовит паэлью из соответствующих ингредиентов (соус софрито, рис, бульон и морепродукты) на установке для приготовления паэльи компании Mimcook.

Разумеется, сам робот и его создатель 41-летний промышленный инженер Энрике Лилло, подверглись серьезной критике разгневанной общественности, которая заявила, что приготовление культового для всей Испании блюда каким-то роботом - это подрывание нравственных основ, духовных скреп, да и вообще - #кудакатитсяэтотмир!

Инженер же заявил, что раз люди используют электрическую выжималку для получения апельсинового сока, то не очень понятно, почему нельзя использовать другой аппарат для получения вкусной паэльи.

И Лилло даже заявил, что его робот, в отличие от живого человека, во время приготовления паэльи не отвлечется на сообщение по WhatsApp, а будет равномерно помешивать готовящийся рис.

Разработчик также заявляет, что робот - многофункциональный, и он может делать далеко не только паэлью, но также жареную картошку, гамбургеры, пиццу и так далее: ему лишь нужно предоставить нужные ингредиенты и соответствующий инструмент (плита, духовка), после чего включить нужную программу.

Также Энрике признался, что пробовал паэлью, приготовленную его роботом, и он был просто поражен тем, какой вкусной она получилась. Ни одна бабушка Консепсьон, ни один дедушка Юсбайо такую паэлью не сделают, кощунственно добавил Лилло.

P.S. При слове "роботизированная рука" в памяти тут же всплывает шикарный эпизод из "Теории большого взрыва".

Офигенное видео - Железный человек на службе  Королевской морской пехоты Великобритании.

Это совместные испытания разработки компании Gravity Industries, которую создал британец Ричард Браунинг, он же и разрабатывал этот костюм.

С помощью технологии Deepfake наложили лицо нынешнего Майкла Джея Фокса на лицо его персонажа из "Назад в будущее II". И по ролику видно, насколько классно тогда поработали гримеры - почти один в один, фантастика просто!

Сайт для создания генеалогического древа MyHeritage добавил на своей странице технологию Deep Nostalgia, которая с помощью искусственного интеллекта "оживляет" фотографии.

Выглядит это все любопытно, однако для получения более или менее интересного результата нужно, чтобы выполнялись следующие условия:

  • лицо должно быть строго анфас (положение "две трети" уже обрабатывается намного хуже);
  • очень желательно, чтобы человек на фото не улыбался (улыбку плоховато обрабатывает, да и смотрится неестественно);
  • если результат не устраивает, то можно выбирать вид анимации, коих там 10 (что-то получается лучше, что-то хуже);
  • для анимаций, где человек слегка поворачивает голову, желательно, чтобы у него были длинные волосы (с короткой прической алгоритм ожидаемо не сможет обработать торчащие уши).

А так вообще поиграться было интересно.

Экслериха у него получилась лучше всех.

Следующие два - пришлось подбирать вид анимации: с короткой стрижкой при повороте головы "плыли" уши.

Ну и вот тут пробовал, что именно получится, когда на лице улыбка.

Вообще это, конечно, потрясная история с посадкой марсохода Perseverance.

Вот запись стрима NASA - для тех, кто еще не посмотрел.

Как сообщила руководитель планетологического подразделения NASA Лори Глейз, ученые уже начали работу. Они, в частности, анализируют присланные снимки. По словам Глейз, установленные на марсоходе научные инструменты будут активированы в ближайшие несколько недель.

Специалист уточнила, что в течение нескольких дней эксперты NASA рассчитывают ознакомиться со всеми данными о посадке. Они могут начать поступать уже в ближайшие часы. Речь идет о кадрах и аудиозаписях, которые были сделаны во время спуска аппарата. "У нас впервые появится такая возможность", - подчеркнула Глейз.

В первые несколько земных суток главной задачей марсохода будет настройка программного обеспечения и оборудования, в том числе систем для передачи данных на Землю. Кроме того, аппарат сделает панорамные снимки, чтобы уточнить характеристики местности. Позже, как ожидается, марсоход совершит несколько коротких поездок – примерно на 5 м и обратно.

В течение примерно трех недель специалисты NASA планируют выбрать место для проведения испытаний закрепленного на марсоходе вертолета Ingenuity. С его помощью, в частности, планируется делать фотографии поверхности Марса. Ожидается, что Ingenuity совершит первый полет весной.

Когда все проверки будут завершены, марсоход приступит к поискам следов существования в прошлом жизни на Красной планете. По словам главного научного специалиста проекта Кена Фарли, аппарат, вероятно, в конечном счете будет двигаться в северо-западном направлении от места посадки. Perseverance должен осуществить сбор образцов грунта, в частности, в местах, где когда-то было озеро. (Отсюда.)

Сергей Ёлкин на это волнующее событие, конечно, не мог не откликнуться.

P.S. Ролик (частично мультик), который наглядно показывает механизм посадки.

Слушайте, какая интересная разработка! И мощность 5 Ватт - в общем-то, вполне пристойная.

Xiaomi провела презентацию технологии беспроводной зарядки Mi Air Charge для смартфонов и другой цифровой электроники, включая умные часы и фитнес-трекеры. В отличие от традиционных беспроводных док-станций, требующих прямого контакта с гаджетом, новая разработка компании способна осуществлять «дозаправку» других устройств на расстоянии до нескольких метров.

Устройство представляет собой стационарный прибор, сопоставимый по габаритам с очистителем воздуха. Он получил пять внутренних антенн с многопозиционной фазовой манипуляцией для определения местоположение смартфона и 144 беспроводных зарядных элемента, которые посредством формирования луча передают волны миллиметрового диапазона на заряжаемые устройства.

Продемонстрированный прототип Xiaomi Mi Air Charge, по заверению производителя, имеет выходную мощность 5 Вт, причём обеспечивает её сразу для нескольких смартфонов в радиусе действия. При этом физические препятствия, как утверждает вендор, не снижают эффективность зарядки. Ожидается, что в дальнейшем док-станция будет совместима с другими устройствами, включая наушники и умные часы.

Xiaomi подтвердила, что на текущем этапе разработки новинка представлена лишь для демонстрации технологии. Для запуска устройства в производство оно должно пройти ряд испытаний с последующим согласованием в регулирующих органах. Его розничный дебют, по словам представителей компании, состоится не раньше 2022 года.

Некоторое время назад я писал обзор PocketBook 633 Color - цветного ридера на E-Ink Kaleido.

Георгий Киселёв купил цифровой микроскоп и с его помощью исследовал, как работает эта матрица - "Цветные электронные чернила E-Ink Kaleido под микроскопом".

Было очень интересно почитать.

Как интересно-то - "A New Satellite Can Peer Inside Buildings, Day or Night".

Кратко. Американская компания Capella Space с помощью своего спутника может получать сверхчеткие изображения участков Земли. Сейчас в их снимках пиксель равен квадрату размером 50 на 50 сантиметров, но в скором времени они планируют получать снимки с разрешением 25 на 25 и даже 20 на 20 сантиметров. Один и тот же объект спутник может снимать на протяжении от 20 до 60 секунд.

Самое интересное заключается в принципе формирования изображения. Здесь не используются обычные камеры. Изображение получается с радара, который отправляет в нужную точку мощный радиосигнал, а потом обрабатывает полученные данные. И так как это радиосигнал, то съемку можно делать и сквозь облака, и ночью. Также радиосигнал способен проникать через стены зданий, так что со спутника в буквальном смысле слова можно увидеть то, что происходит в кабинетах.

Цели у компании - чисто коммерческие. Самые четкие изображения они имеют право продавать только правительственным агентам США, однако менее четкие изображения они могут продавать как государственным, так и частными клиентам.

У Петра Чернышова (бывший президент компании "Kyivstar") интересный пост по поводу технологии 5G.

5G - огромные ожидания и неприятная реальность

Я знаю, что население многих стран ждет прихода 5G как чуда - которое позволит много всего улучшить. Недавний запуск iPhone 12, который поддерживает 5G - конечно увеличивает оптимизм.

Те битвы, которые ведет сейчас Трамп и вообще Америка с компанией Huawei и в целом с Китаем (именно по поводу 5G) - вроде как говорят что от этой технологии зависят судьбы всей планеты - ну или как минимум Западной цивилизации.

Так вот - я хочу доставить вам всем неприятную новость. Все очень грустно с 5G.

Если кратко:
1. 5G нужно только производителям оборудования (читай Huawei и Ericsson нашего мира)
2. Клиентам - то есть нам с вами - это не нужно вообще
3. Телеком операторы могут сильно пострадать от финансовых последствий этой технологии, если будут вести себя слишком агрессивно

Расскажу вам про Китай...

В этой стране решили внедрить 5G быстро и агрессивно. Под громкую музыку Компартия Китая объявила что это самый важный проект страны и запустили его в сентябре 2019 года. Одни из первых в мире!

И на сегодня в стране уже 410 тысяч базовых ТОЛЬКО 5G станций. (Для сравнения - в Украине всех базовых станций на сегодня примерно 40 тысяч)

Начну с того, что в августе 2020 года один из трех больших китайских операторов объявил, что с 9 вечера до утра будет ВЫКЛЮЧАТЬ свои 5G  базовые станции - потому что почти никто их не использует. Остальные два оператора вскоре сделали то же самое. Неожиданно?

С этой технологией есть две большие проблемы. Первая - в городах станцию надо строить через каждые примерно 200-300 метров - чтобы был хороший сигнал. Причина - чем выше частота волны - тем меньше дальность покрытия. Чтобы достичь такого же покрытия как сейчас есть у 4G - надо всего им построить примерно 10 млн станций 5G на страну. И эта проблема всем была известна и понятна - производители оборудования заранее потирали свои ладошки ожидая огромных продаж.

Вторая проблема (о ней почему-то никто заранее не подумал) - технология работает так, что станция 5G потребляет примерно в три раза больше электричества чем станция 4G. В начале операторы решили, что с развитием технологии как-то найдутся способы радикально уменьшить потребление электричества - но ОБЛОМ! Поэтому, подсчеты в Китае показывают, что если построить 10 млн станций, то тотальный счет за электричество будет примерно 29 млрд дол в год - что в 10 раз больше годовой прибыли лидера рынка.

По этим двум причинам - никто сейчас не торопится строить много станций 5G. Ведь реальные бенефиты от них пока что непонятны. Кроме того что клип из Интернета загрузится к вам на телефон в 3-5 раз быстрее чем на 4G. Ну и что?

5G - это такое классическое в бизнесе SOLUTION IN SEARCH OF A PROBLEM - то есть технологическое решение уже есть - а проблему которую оно решает - пока что не придумали.

Недавний опрос в Китае показал что 73% населения не понимает зачем им 5G технология и не собирается покупать новый смартфон с ней.

А что сделали операторы? Правильно - обратились к Правительству с просьбой субсидировать их затраты на электричество. И я не исключаю что в Китае могут на это пойти - чтобы не потерять имидж лидера в новых технологиях.

А вот теперь примените все что написано все что написано выше для ситуации бедной страны. И успокойтесь на тему 5G. Его у нас долго не будет!

Любопытная какая заметка. Оказывается, возможно, скоро появится приложение для смартфона, которое с высокой вероятностью сможет определять носителя коронавируса по кашлю.

Технология уже доказала свою эффективность и теперь ученые работают над мобильным приложением, чтобы любой человек мог покашлять в смартфон и получить диагноз. Результат доступен мгновенно, поэтому простой инструмент можно будет использовать в местах массового скопления людей для предотвращения рисков бессимптомной передачи, надеются авторы.

Основой нового диагностического инструмента стал алгоритм, который ученые из Массачусетского технологического института разрабатывали для определения признаков болезни Альцгеймера. Данное заболевание связано с нервно-мышечной деградацией и с помощью ИИ ученые стремились оценивать по речи и кашлю ослабление голосовых связок.

Они достигли высоких результатов в этом отношении, но пандемия COVID-19 заставила ученых посмотреть на свою разработку с другой стороны. Стало понятно, что некоторые пациенты с COVID-19 могут испытывать схожие неврологические симптомы, поэтому алгоритм решили адаптировать для диагностики коронавирусной инфекции.

Данные собирали онлайн. Любой желающий мог заполнить анкету и отправить аудиозапись своего кашля и речи независимо от наличия установленного диагноза COVID-19. Различия в кашле невозможно расшифровать человеку, однако ИИ смог точно определять и классифицировать все случаи.

ИИ с 98,5% точностью идентифицировал по кашлю пациентов с COVID-19, в том числе 100% бессимптомных носителей SARS-CoV-2.

Постановка диагноза базировалась на четырех биомаркерах по аналогии с обследованием при болезни Альцгеймера — силе голосовых связок, эмоциональному тону речи, характеристикам дыхания и мышечной деградации.

«Мы думаем, что воспроизведение звуков меняется при наличии COVID-19 даже если не наблюдается симптомов», — объясняют ученые особенности анализа ИИ.

В настоящее время команда работает над созданием бесплатного приложения для предварительного тестирования на COVID-19. Например, перед походом в ресторан, офис и другие общественные места. В более отдаленной перспективе они рассматривают интеграцию ИИ в динамики смартфона или другие устройства, чтобы система в фоновом режиме могла ежедневно сообщать о рисках бессимптомного носительства.

Изучая причины бессимптомной формы COVID-19, ученые из Дании предположили, что это происходит из-за способности коронавируса маскироваться от иммунных клеток в организме человека. (Отсюда.)

Роботы BostonDynamics уже паркур исполняют. Это вам не рогозинский робот Федя, которого просто чтобы включить, надо по башке гаечным ключом офигачить.

Исследователи из Стэнфордского и Принстонского университетов создали алгоритм, который искажает речь человека на видео. Для убедительности программа не только подстраивает голос, но и изменяет мимику, а также длину ролика.

Как рассказали разработчики, устроена их программа так: из ролика она выделяет аудиодорожку, разделяя речь человека на фонемы. Далее ПО создает 3D модель лица человека, сканируя, как он двигает губами, произнося слова. Затем машина находит висемы — звуки, которые выглядят одинаково при движении губ — и использует их для создания мимики под новые фразы. В итоге из двух произнесенных слов алгоритм создает третье.

Чтобы отредактированный голос больше походил на речь модели, исследователи пользуются программой VoCo, которую они представили в 2016 году. Проанализировав небольшой монолог человека, она способна «спародировать» его голос.

В ознакомительном ролике исследователи показали демоверсию разработки. Например, одного диктора они «заставили» говорить French toast вместо Napalm в предложении I love the smell of napalm in the morning. Другого диктора и вовсе лишили одного слова — программа также умеет удалять речь из ролика. (Отсюда.)

М-да... Deep Fake может на видео заменить лицо человека на другое. Эта программа может заставить человека говорить то, чего он не говорил.

Ну и как после этого верить каким-то видеодоказательствам?

Любопытная статья на сайте Стэнфорда - "Stanford develops ‘autofocals’ – glasses that track your eyes to focus on what you see".

Кратко. Группа Стэндфордских разработчиков создала очки с автофокусировкой. Они представляют собой две наполненные жидкостью линзы, которые могут менять форму, а соответственно - диоптрии. В очки встроены датчики слежения за глазами, которые определяют, на что человек в данный момент смотрит и, соответственно, при этом корректируются характеристики линз. 

Есть такая противная штука, которая называется пресбиопия - это когда с возрастом хрусталик глаза теряет эластичность и плохо фокусируется на близких предметах. А если у человека еще и близорукость, то это создает большие проблемы: ему понадобятся одни очки для дали, другие для близи. Я эту штуку как раз к пятидесяти годам заработал, так что хорошо знаю, насколько это все неприятно.

Хороший способ решения данной проблемы - очки с так называемыми прогрессивными линзами: у них верхняя зона с одними диоптриями предназначена для дали, а нижняя с другими диоптриями - для чтения. (Вот здесь можно почитать всякие подробности.)

Я очки с прогрессивными линзами ношу несколько лет, в них себя чувствую вполне комфортно, а недостаток у таких очков только один - высокая стоимость. Например, нынешние мои очки с учетом еще и недешевой оправы обошлись почти в €800.

Кстати, в вышеуказанной статье о прогрессивных очках какую-то явную чушь пишут, перевожу:

Представьте, что вы ведете машину и смотрите в боковое зеркало, чтобы сменить полосу движения. У прогрессивных линз периферийный фокус почти отсутствует. Водитель должен переключиться с того, чтобы смотреть на дорогу и повернуть голову почти на 90 градусов, чтобы увидеть ближайшее зеркало через нижнюю часть линз.

Я не знаю, может быть, существуют какие-то прогрессивные линзы, у которых отсутствует периферийный фокус (что само по себе звучит бредом), но у всех моих очков с прогрессивными линзами с периферийным фокусом все было прекрасно и за зеркалами в машине я без проблем слежу, не поворачивая головы.

Но вернемся к устройству. В любом случае разработка очень интересная, и если они смогут сделать это в формате обычных очков - будет здорово. Но пока такая установка выглядит, как написано в статье, как очки виртуальной реальности, то есть они очень громоздкие.

Теги
Сортировать по алфавиту или записям
BLM 20
Calella 142
exler.ru 251
авто 428
видео 3796
вино 350
еда 481
ЕС 57
игры 114
ИИ 21
кино 1548
попы 185
СМИ 2600
софт 908
США 85
шоу 6