18.09.2020

Прямо сейчас кризис испытывает на прочность IT-инфраструктуру компаний по всему миру. Перед IT-директорами стоит задача в кратчайшие сроки обеспечить защиту доступа для каждого сотрудника на удаленке.

Компания Eset подготовила «Комплект первой помощи» для организации удаленной работы без бюджета:
  • ESET Secure Authentication — надежное средство двухфакторной аутентификации для безопасного доступа к IT-инфраструктуре компании
  • AUDITOR SAFETICA — часть решения «Офисный контроль и DLP Safetica» для выявления потенциальных рисков безопасности и мониторинга эффективности работы из дома
  • ESET NOD32 Smart Security Business Edition — комплексное бизнес-решение для оперативного сканирования и распознавания всех типов угроз

Чтобы воспользоваться данным предложением, необходимо написать электронное письмо или позвонить в офис компании-партнера ESET Russia и предоставить следующую информацию:

  • название организации,
  • контактное лицо,
  • адрес электронной почты,
  • почтовый адрес организации,
  • наименование решения ESET, которое планируется приобрести.

Как оформить заказ по спецпредложению:

  • в форме заказа в поле «Примечание» укажите название акции «Комплект первой помощи»
  • при оформлении заказа менеджер ESET проверит правильность применения спецпредложения

Территория действия спецпредложения:
Российская Федерация, СНГ, Грузия

По всем вопросам обращайтесь к вашему курирующему менеджеру.

Другие новости

Обзор: AMD анонсировала Instinct MI200, самые быстрые в мире ускорители вычислений на базе CDNA 2 09.11.2021 Обзор: AMD анонсировала Instinct MI200, самые быстрые в мире ускорители вычислений на базе CDNA 2
В прошлом году AMD окончательно развела ускорители для графики и вычислений, представив Instinct MI100, первый продукт на базе архитектуры CDNA, который позволил компании противостоять NVIDIA. Теперь же AMD подготовила новую версию архитектуры CDNA 2 и ускорители MI200 на неё основе. Новинки, согласно внутренним тестам, в ряде задач на голову выше того, что сейчас может предложить NVIDIA.

Циркулировавшие ранее слухи оказались верны — MI200 являются двухчиповыми решениями с 2.5D-упаковкой кристаллов (GCD) самих ускорителей, четырёх линий Infinity Fabric между ними и восьми стеков памяти HBM2e (8192 бит, 1600 МГц, 128 Гбайт, 3,2 Тбайт/c). В данном случае используется мостик EFB (Elevated Fanout Bridge), который позволяет задействовать стандартные подложки, что удешевляет и упрощает производство и тестирование ускорителей, не потеряв при этом в производительности и, что важнее, без существенного увеличения задержек в обмене данными.

Несмотря на то, что в составе ускорителя два GCD, системе они представляются как единое целое с общей же памятью. Каждый GCD в случае CDNA 2 включает 112 CU (Compute Unit), но в конечных продуктах они задействованы не все. CU разбиты на четыре группы (с индивидуальным планировщиком) с общим L2-кешем объёмом 8 Мбайт и пропускной способностью 6,96 Тбайт/с, который поделён на 32 отдельных блока. А сами блоки имеют индивидуальные подключения к контроллерам памяти в GCD.

Важное отличие CDNA 2 заключается в «подтягивании» производительности векторных FP64- и FP32-вычислений — они исполняются с одинаковой скоростью в отличие от CDNA первого поколения. Кроме того, появилась поддержка сжатых (packed) инструкций для операций FMA/FADD/FMUL для FP32-векторов. Второй крупный апдейт касается матричных вычислений. Для них теперь тоже есть отдельная поддержка FP64, и с той же производительностью, что и для FP32. Новые инструкции рассчитаны на блоки 16×16×4 и 4×4×4.

Поддержка FP16/BF16 в матричных ядрах, конечно, тоже есть, что позволяет задействовать их и для ИИ-задач, а не только HPC. Подспорьем для них в некоторых задачах будут два блока VCN (Video Codec Next) в каждом GCD. Они поддерживают декодирование H.264/AVC, H.265/HEVC, VP9 и JPEG, а также кодирование H.264/H.265, что потенциально позволит более эффективно работать ИИ-алгоритмам с изображениями и/или видео.

Для обмена данными между ускорителями и CPU используется единая шина Infinity Fabric (IF) с поддержкой кеш-когерентности. Всего на ускоритель приходится до восьми внешних линий IF, а суммарная скорость обмена данными может достигать 800 Гбайт/c. В наиболее плотной компоновке из четырёх MI200 и одного EPYC каждый ускоритель имеет по две линии для связи с CPU и со своим соседом. Причём внутренние и внешние IF-линии образуют два двунаправленных кольца между ускорителями. Каждая IF-линия опирается на x16-подключение PCIe 4.0, но в данном случае есть ряд оптимизаций конкретно под HPC-системы HPE Cray.

Дополнительно у каждого ускорителя есть собственный root-комплекс, что позволяет напрямую подключить сетевой адаптер класса 200G. И это явный намёк на возможность непосредственного RDMA-соединения с внешними хранилищами, поскольку в такой схеме на локальные NVMe-накопители линий попросту не остаётся. Более простые топологии уже предполагают использование половины линий IF в качестве обычного PCIe-подключения и задействуют коммутатор(-ы) для связи с CPU и NIC. В этом случае IF-подключение остаётся только между процессорами. Зато в одной системе можно объединить восемь MI200.

Чипы ускорителей MI250X изготовлены по 6-нм техпроцессу FinFet, содержат 58 млрд транзисторов и предлагают 220 CU, включающих 880 ядер для матричных вычислений и 14080 шейдерных ядер второго поколения. У MI250 их 208, 832 и 13312 соответственно. Для обеих моделей уровень TDP составляет 500 или 560 Вт, поэтому поддерживается как воздушное, так и жидкостное охлаждение. В дополнение к OAM-версиям MI250(X) чуть позже появится и более традиционная PCIe-модель MI210.

Для сравнения — у NVIDIA A100 объём и пропускная способность памяти (тоже HBM2e) составляют до 80 Гбайт и 2 Тбайт/с соответственно. Шина же NVLink 3.0 имеет пропускную способность 600 Гбайт/c, а коммутатор NVSwitch для связи между восемью ускорителями — 1,8 Тбайт/с. Потребление SXM3-версии составляет 400 Вт. Стоит также отметить, что первая версия A100 появилась ещё весной 2020 года, и скоро ожидается анонс следующего поколения ускорителей на базе архитектуры Hopper. На носу и выход ускорителей Intel Xe Ponte Vecchio.

И если про первые мы пока ничего толком не знаем, то вторые, похоже, уже проиграли MI250X в «голой» производительности как минимум по одной позиции (FP32). AMD говорит, что создавала Instinct MI200 как серию универсальных ускорителей, пригодных и для «классических» HPC-задач, и для ИИ. Отсюда и практически пятикратная разница в пиковой FP64-производительности с NVIDIA A100.

Но вот с нейронками всё не так однозначно. Предпочтительным форматом для обучения у NVIDIA является собственный TF32, поддержка которого есть в Tensor-ядрах Ampere. Ядра для матричных вычислений в CDNA2 про него ничего не знают, поэтому сравнить производительность в лоб нельзя. Разница в BF16/FP16 между MI250X и A100 уже не так велика, так что AMD говорит о приросте в 1,2 раза для обучения со смешанной точностью.

Данные по INT8 и INT4 в презентацию не вынесены, что неудивительно. Пиковый показатель для обоих форматов у MI250X составляет 383 Топс, тогда как тензорные ядра NVIDIA A100 выдают 624 и 1248 Топс соответственно. В данном случае больший объём памяти сыграл бы на руку MI200 в задачах инференса для крупных моделей. Наконец, у A100 есть ещё одно преимущество — поддержка MIG (Multi-Instance GPU), которая позволяет более эффективно задействовать имеющиеся ресурсы, особенно в облачных системах.

Вместе с Instinct MI200 была анонсирована и новая версия открытой (open source) платформы ROCm 5.0, которая обзавелась поддержкой и различными оптимизациями не только для этих ускорителей, но и, например, Radeon Pro W6800. В этом релизе компания уделит особое внимание расширению программной экосистемы и адаптации большего числа приложений. Кроме того, будет развиваться и новый портал Infinity Hub, где будет представлено больше готовых к использованию контейнеров с популярным ПО с рекомендациями по настройке и запуску.

AMD Instinct MI200 появятся в I квартале 2022 года. Новинки, в первую очередь MI210, будут доступны у крупных OEM/ODM-производителей: ASUS, Atos (X410-A5 2U1N2S), Dell Technologies, Gigabyte (G262-ZO0), HPE, Lenovo и Supermicro. Ускорители Instinct MI250X пока остаются эксклюзивом для систем HPE Cray Ex. Именно они вместе с «избранными» процессорами AMD EPYC (без уточнения, будут ли это Milan-X) станут основой для самого мощного в США суперкомпьютера Frontier.

Окончательный ввод в эксплуатацию этого комплекса запланирован на будущий год. Ожидается, что его пиковая производительность превысит 1,5 Эфлопс. При этом он должен стать самой энергоэффективной системой подобного класса. А адаптация ПО под него позволит несколько потеснить NVIDIA CUDA в некоторых областях. И это для AMD сейчас, пожалуй, гораздо важнее, чем победа по флопсам.

Intel анонсировала сетевые процессоры Tofino 3: 25,6 Тбит/с + P4 29.10.2021 Intel анонсировала сетевые процессоры Tofino 3: 25,6 Тбит/с + P4
Осенью 2020 года Intel представила второе поколение сетевых процессоров Tofino, в котором были достигнуты скоростные показатели 12,8 Тбит/с и 6 млрд пакетов в секунду, а движок P4 сделал эти чипы действительно универсальными. Год спустя Intel анонсирует ещё более совершенные чипы Tofino. Процессоры для «умных» сетевых фабрик (IFP, Intelligent Fabric Processor), как их теперь называет Intel, Tofino 3 должны задать новую планку производительности и изменить подход к инфраструктуре ЦОД.

Свое видение сетевых архитектур Intel опубликовала в том же 2020 году — компания считает, что будущее лежит за «умными» сетевыми устройствами, программируемыми с помощью языка P4 и сочетающими в себе элементы традиционной электроники и фотоники. Уже тогда 16 оптических каналов обеспечивали работу четырёх портов класса 400G.

Новое поколение Tofino 3 подтверждает верность курса Intel: в третьем поколении линейную пропускную способность удалось повысить вдвое, с 12,8 до 25,6 Тбит/с, а скорость обработки трафика — с 6 до 10 млрд пакетов в секунду. Сердцем Tofino 3 являются 8 программируемых конвейеров, каждый из которых работает на частоте до 1,25 ГГц и обрабатывает по одному пакету за такт. Каждый из конвейеров может оперировать четырьмя 100G-подключениями или восемью 50G и располагает весьма приличным объёмом памяти SRAM и TCAM — 200 и 10,3 Мбит соответственно.

Возросли практически все параметры: если второе поколение Tofino имело буфер пакетов объёмом 64 Мбайт, то в третьем эта цифра уже может достигать 192 Мбайт, есть блоки SerDes 112G (PAM4), а шина PCIe 3.0 сменилась на более производительную PCIe 4.0. Более того, при необходимости объёмы буферов и таблиц могут быть значительно увеличены с помощью FPGA Intel Stratix, с которыми Tofino 3 умеет общаться напрямую.

В новой серии анонсировано четыре разных варианта кремния Tofino 3, отличающихся количеством конвейеров, конфигурацией блоков SerDes, объёмами буферов и количеством поддерживаемых портов. Но даже младший вариант превосходит Tofino 2 по многим параметрам, а старший, по мнению Intel, может претендовать на статус «самого продвинутого сетевого процессора современности» — единственный чип может обслуживать до 64 портов 400GbE или до 256 портов 100GbE (и ниже). Причём все — с глубокой телеметрией (In-band Network Telemetry) на лету без снижения производительности.

Платформа Intel Tofino опирается на P4 — это открытый язык, специально оптимизированный для программирования сетевых устройств, таких как коммутаторы и маршрутизаторы. В отличие от традиционных сетевых ASIC с жёстко заданной функциональностью, Intel Tofino позволяет адаптировать уже построенную сеть применительно к новым нуждам, например, оптимизировать её для систем машинного обучения. Для облегчения процесса разработки ПО для платформы Tofino Intel сопровождает её набором P4 Studio.

Унификация снизит расходы на развёртывание и поддержку таких ЦОД, интеллектуальная аналитика предотвратит возникновение проблем с сетью на самых ранних этапах, а поддержка доверенных доменов обеспечит высокий уровень безопасности. Новые IFP компания видит в качестве «цементирующего» звена в ЦОД ближайшего будущего, которое сможет связать в единое целое самые разные ресурсы: вычислители и ускорители любого типа, хранилища и пулы памяти, IPU/DPU/SmartNIC и коммутаторы.

C помощью анонсированного на днях набора разработки IPDK можно создать сквозные конвейеры с P4-обработкой трафика на всём пути его прохождения как для программных, так и для аппаратных решений. А поскольку набор является открытым, жёсткой привязки к решениям Intel нет. P4 весьма популярен, поэтому стоит ждать интеграции и с решениями других производителей.

Microsoft поможет некоммерческим организациям повысить свою защищённость 28.10.2021 Microsoft поможет некоммерческим организациям повысить свою защищённость
Компания Microsoft анонсировала программу по повышению безопасности для некоммерческих организаций и набор инструментов, дополняющий её решения в этой области и предлагающий мониторинг, уведомление об атаках, оценку рисков и другие подобные сервисы. Как отмечается, угрозы, нацеленные на этот сектор, продолжают расти, что требует реакции со стороны разработчиков.

В рамках своего «Доклада о цифровой защите за 2021 год» (2021 Digital Defense Report) Microsoft сообщила, что неправительственные и научно-исследовательские (аналитические) организации были вторым по популярности сектором среди киберпреступников. На них пришлось 31% отслеженных взломов и атак. Поэтому Microsoft намерена помочь 10 тыс. организациями в течение первого года и 50 тыс. — в течение 3 лет.

Предложение Microsoft включает бесплатный доступ к сервису AccountGuard, который отслеживает учётные записи пользователей в Microsoft 365 или персональные аккаунты сотрудников и руководителей в Outlook и Hotmail. Также некоммерческие организации получат возможность бесплатно получить оценку их безопасности, что позволит улучшить защиту и разработать план действий на случай возникновения проблем.

Также сотрудники некоммерческих организаций смогут получить доступ к обучающим материалам, чтобы узнать, как они могут защитить себя от сетевых атак и более безопасно работать из дома. ИТ-администраторы получат доступ к Security Skilling Hub и Microsoft 365 Administrator's Security Toolkit. Кроме того, Microsoft привлекла к участию в программе несколько партнёров: Risual, Redapt, MOQdigital и Open Systems.

Получена первая партия российских серверных Arm-процессоров Baikal-S: 48 ядер, 6 каналов DDR4-3200 и 80 линий PCIe 4.0 27.10.2021 Получена первая партия российских серверных Arm-процессоров Baikal-S: 48 ядер, 6 каналов DDR4-3200 и 80 линий PCIe 4.0
Компания «Байкал Электроникс» сообщила о получении первой партии инженерных образцов серверных Arm-процессоров Baikal-S объёмом 400 шт. Следующую партию компания ожидает получить в первом квартале следующего года, а первые массовые поставки (партия более 10 тыс. шт.) должны начаться до конца третьего квартала. Инженерные платы для разработчиков, созданы «Гаоди рус» (Dannie Group) и выпущены компанией «Рутек».

Baikal-S, изготавливаемый по 16-нм техпроцессу на TSMC, имеет 48 ядер Arm Cortex-A75 на базе достаточно свежей 64-бит архитектуры ARMv8.2-A, которая была анонсирована в 2017 году. Частота составляет до 2,2 ГГц, а уровень TDP равен 120 Вт. Заявленный диапазон рабочих температур простирается от 0 до +70 °C. Производительность в HPL составляет 385 Гфлопс, а рейтинг в SPEC CPU2006 INT — до 600.

L1-кеш имеет объём по 64 Кбайт для данных и инструкций, а L2 — 512 Кбайт на ядро. Любопытно, что в дополнение к L3-кешу (по 2 Мбайт на кластер) есть ещё и L4-кеш на 32 Мбайт. Контроллер памяти имеет шесть каналов DDR4-3200 ECC и обслуживает до 128 Гбайт на канал (суммарно 768 Гбайт на сокет). Кроме того, каждый процессор имеет 80 линий PCIe 4.0, из которых 48 линий делятся тремя интерфейсами CCIX x16. Также есть пара 1GbE-интерфейсов.

При этом новинка поддерживает аппаратную виртуализацию, Arm TrustZone и позволяет создавать четырёхсокетные платформы. Всё это делает её привлекательным решением не только для традиционных серверов и СХД, но и для и HCI- и HPC-систем. С экосистемой ПО проблемы вряд ли будут. Во-первых, для «малого» Байкал-М уже сейчас есть отечественные ОС и другие продукты. Во-вторых, серверные платформы Arm в мире развивают сразу несколько игроков, да и сама Arm стимулирует процесс разработки и портирования ПО.

Обзор: Гиперконвергентная платформа HPE SimpliVity: простота, единство, универсальность 26.10.2021 Обзор: Гиперконвергентная платформа HPE SimpliVity: простота, единство, универсальность
Любой ЦОД, особенно современный многофункциональный, требует серьёзных затрат на обслуживание и управление. Стоимость оплаты труда ИТ-специалистов легко может превысить затраты на само оборудование. Компания HPE предлагает решение —  гиперконвергентную платформу HPE SimpliVity, способную существенно сократить затраты любого предприятия на ИТ-инфраструктуру.

Классические принципы построения ЦОД постепенно отходят в прошлое, как не обеспечивающие оптимального соотношения затрат к получаемой эффективности. На смену им идут гиперконвергентные и даже компонуемые среды — унифицированные, удобные в управлении и экономичные в плане финансовых затрат.

Решение HPE SimpliVity позволит легко развернуть гиперконвергентную платформу корпоративного класса, обеспечивая при этом надёжность, отказоустойчивость и безопасность. А единая интеллектуальная среда управления снизит затраты на обслуживание такой платформы.

Сегодня различные предприятия и компании стремятся ускорить обработку данных или выпуск приложений, поскольку законы конкурентной гонки неумолимы: каждый день задержки может означать серьёзные убытки или обернуться недополученной прибылью. В этих условиях серьёзную проблему представляют периферийные отделы, базирующиеся на классических принципах построения ИТ-инфраструктуры.

Устаревшее и разрозненное оборудование, отсутствие места для размещения новых мощностей плюс растущий не по дням, а по часам трафик с периферии, с которым старая инфраструктура уже не справляется. А если добавить к этому растущие расходы на облачные услуги, картина складывается довольно безрадостная. Но компания HPE предлагает решение этих проблем с помощью гиперконвергентной платформы HPE SimpliVity.

HPE SimpliVity являет собой унифицированную программно-аппаратную платформу, в основе которой лежат зарекомендовавшие себя серверы HPE ProLiant. Так, в качестве основного узла SimpliVity 380 используется сервер HPE ProLiant DL380 Gen10. При этом доступны не только относительно крупные конфигурации SimpliVity, но и совсем небольшие, состоящие буквально из одного-двух узлов, что отлично подойдёт для удалённых офисов и филиалов, а также для малого бизнеса. По сути, данная платформа специально оптимизирована для использования на периферии, поскольку весьма проста в управлении и весьма экономична в отношении расходуемых ресурсов, в том числе дисковых.

При этом система легко масштабируется. До 16 узлов в одном кластере и 96 узлов в режиме федерации. Сами узлы могут иметь различные конфигурации и нести на борту 1 или 2 процессора Xeon Scalable и до 3 Тбайт оперативной памяти. Подсистема хранения данных имеет ещё больше опций — как all-flash, так и гибридные варианты на базе SSD с HDD. Доступны варианты XS, S, M, L и XL.

Но выбор заказчика не ограничен процессорами Intel Xeon. Новый узел HPE SimpliVity 325 построен на базе сервера HPE ProLiant DL325 и процессоров AMD EPYC. При этом он поддерживает процессоры вплоть до 64-ядерных, до 2 Тбайт памяти и до 6 накопителей SSD объёмом 1,92 Тбайт.

HPE SimpliVity имеет встроенную систему резервного копирования виртуальных машин. По данным HPE, восстановление виртуальной машины объёмом 1 Тбайт занимает менее 60 с, а общий уровень затрат на организацию системы резервного копирования может быть снижен почти на 70%. За счёт дедупликации и компрессии достигается высокая эффективность использования дискового пространства — до 90% экономии пространства для хранения данных в сравнении с классическими системами. Это рекордный показатель.

Управление виртуальными машинами осуществляется на основе политик, а интегрированные средства обеспечения отказоустойчивости и резервного копирования защитят данные от повреждения или атак злоумышленников. В случае сбоя обеспечивается быстрое восстановление данных из резервных копий, что минимизирует время простоя инфраструктуры, а значит, и потенциальные убытки.

За мониторинг ресурсов кластера HPE SimpliVity отвечает среда HPE InfoSight. Она предоставляет подробнейшие отчеты об использовании ресурсов, и благодаря продвинутой предиктивной аналитике может прогнозировать будущие потребности в таких ресурсах, а также предупредит о возможных проблемах с безопасностью и о вероятных аппаратных неполадках, таких, как выход из строя дисковых накопителей.

Простая и удобная панель отображает состояние «здоровья» каждого узла SimpliVity. Просто взглянув на неё, можно узнать, какие факторы в данный момент ограничивают производительность системы и получить список рекомендаций по исправлению ситуации — например, подключить дополнительный узел, который снимет часть нагрузки с перегруженного участка или заменить дисковые контроллеры на более производительные. Преимущества такого подхода очевидны и за предиктивной аналитикой будущее, но HPE SimpliVity позволяет реализовать это будущее уже сейчас.

Примеров внедрения SimpliVity уже немало: так, известно, что сегодня гонки Формулы-1 означают не только скорость болидов и мастерство пилотов, но и весьма сложную ИТ-инфраструктуру. Команда Aston Martin Red Bull Racing столкнулась с тем, что существующие решения уже не удовлетворяют её запросам — они просто не справляются с возросшим потоком данных (один болид за пару дней гонок генерирует около 400 Гбайт данных), а использование 500 различных виртуальных машин на разрозненном оборудовании представляло собой прекрасный пример неконтролируемого разрастания инфраструктуры.

В результате принятого решения о переходе на гиперконвергентную систему HPE SimpliVity команде удалось вдвое сократить время на обработку данных каждой гонки, а при считывании данных с каждого болида — с 9 до 2 минут, что критично в таком спорте, где счёт уже на доли секунд.

Коммутаторы Aruba CX 10000 получили DPU Pensando Elba 25.10.2021 Коммутаторы Aruba CX 10000 получили DPU Pensando Elba
Совсем молодой по меркам мира информационных технологий класс новых сопроцессоров, DPU, уже успел снискать популярность у разработчиков и производителей сетевого оборудования. Компания Aruba Networks анонсировала новые коммутаторы CX 10000, главной особенностью которых является наличие DPU от Pensando Systems.

Не столь давно Pensando заявила, что намерена потягаться с NVIDIA BlueField-2. По мнению компании, её процессор DSC-100 опережает соперника на целое поколение, и при потреблении 30 Вт способен на полной скорости обрабатывать сетевой поток 100 Гбит/с со средней задержкой не более 3 мкс. Ранее эти DPU уже «засветились» в некоторых серверах Dell и HPE и СХД NetApp. Теперь пришла очередь коммутаторов компании Aruba Networks, дочерней компании HPE.

Новая серия ToR-коммутаторов L2/L3 Aruba CX 10000 имеет суммарную пропускную способность до 3,2 Тбит/с. Новинка предоставляет 48 портов 10/25GbE, а со стороны агрегирующего слоя имеет 6 портов 40/100GbE. Но самое главное — это наличие в составе CX 1000 сопроцессора Pensando Elba, позволяющего избавиться от отдельных аппаратных устройств шифрования или обеспечения сетевой безопасности (брандмауэры и т.п.).

7-нм DPU Elba содержит четыре P4-конвейера для обработки пакетов, каждый из которых включает 32 ядра MPU, а также кеши, планировщики и прочую обвязку. Сами P4-ядра работают на частоте 1,5 ГГц. Дополнительно этот DPU имеет 16 ядер общего назначения Cortex-A72 с частотой 2,8 ГГц и контроллер DDR4/5. Есть и аппаратные блоки ускорения криптографии, сжатия/дедупликации, сверки контрольных сумм. Для связи с внешним миром есть 32 линии PCIe 4.0.

Собственно говоря, DPU способен обрабатывать трафик вплоть до L7 — всё зависит только от потребностей заказчика. Шифрование, инспекция трафика, брандмауэр, балансировка нагрузки, сегментация приложений на уровне порта, подробнейшая телеметрия — всё это может взять на себя именно Elba. А само устройство, CX 1000 при этом будет занимать всего 1U-место в стойке и, разумеется, потреблять меньше энергии, нежели классический набор отдельных устройств.

Полноценная поддержка Aruba Fabric Composer существенно упростит процесс интеграции коммутаторов нового поколения в существующие сети на базе оборудования Aruba Networks. В комплект уже будут входить реализации брандмауэра, zero trust сегментации, телеметрии, защиты от DDoS-атак.

Intel предложила протокол HTTPA для повышения безопасности веб-приложений 22.10.2021 Intel предложила протокол HTTPA для повышения безопасности веб-приложений
HTTPS стал стандартом де-факто для обеспечения безопасного подключения для веб-сайтов и приложений. Однако и ему есть куда расти. Intel предложила новый протокол HTTPS-Attestable (HTTPA), который предназначен для дальнейшего повышения сетевой безопасности благодаря выполнению кода в доверенных аппаратных средах (Trusted Execution Environment, TEE).

Как отмечается, HTTPA улучшает сетевую безопасность с помощью удалённой аттестации, одного из способов получить подтверждение того, что данные обрабатываются доверенным программным обеспечением в защищённой среде. Приложения используют сертификаты и иные криптографические методы, чтобы убедиться, что код, выполняемый на сервере в TEE-анклаве, не был изменён мошенническим процессом, каким-либо инструментом или администратором системы.

Для этого предлагается использовать уже имеющиеся технологии Intel Software Guard Extension (Intel SGX) и Arm TrustZone, чтобы помочь защитить данные во время работы, снизить риски утечки или изменения данных. Идея состоит в том, чтобы повысить безопасность онлайн-сервисов, поскольку на данный момент веб-клиент не может проверить, что сервер не был взломан и что его данные не были изменены. При этом HTTPA предполагает повышение защиты лишь конкретного веб-приложения, а не всего сервера.

NetApp улучшила интеграцию с тремя ведущими облачными провайдерами 21.10.2021 NetApp улучшила интеграцию с тремя ведущими облачными провайдерами
NetApp продолжает экспансию в облака. Компания приобрела Data Mechanics в начале 2022 финансового года, а в этом месяце объявила о намерении приобрести CloudCheckr, чтобы расширить возможности сервисов Spot. «Три крупнейших публичных облака в мире выбирают NetApp, потому что заказчики выбирают ONTAP», — отметил Энтони Лай (Anthony Lye), исполнительный вице-президент и генеральный менеджер NetApp Public Cloud Services.

За последние 12 месяцев NetApp более чем утроила количество совместных продаж, предлагаемых на Azure Marketplace. Полностью управляемая служба Azure NetApp Files (ANF) уже доступна в более чем 35 регионах и является первой и единственной файловой службой с общим доступом, сертифицированной для использования с SAP HANA. Последние нововведения в Azure включают функции репликации между регионами Azure, предварительный доступ к Azure NetApp Files Backup, а также VDI-службу Spot PC.

В Google Cloud давно доступны сервисы NetApp Cloud Volumes Service (CVS), а теперь и интеграция с NetApp Astra. Представленное на прошлой неделе решение Google Distributed Cloud Hosted в качестве одного из провайдеров хранилища предлагает именно решения NetApp. Кроме того, появилась интеграция Google Cloud VMware Engine с NetApp CVS, а Spot от NetApp позволяет использовать преимущества недавно анонсированных Spot-инстансов. Благодаря этому клиенты Google Cloud могут непрерывно оптимизировать производительность, доступность и стоимость ресурсов для экономии затрат на облачные ресурсы затрат без риска прерывания обслуживания.

Что касается AWS, то запущенная в прошлом месяца служба FSx оказалась на редкость популярной у заказчиков — в течение месяца суммарный объём обслуживаемых данных перевалил за петабайт. Неудивительно что на фона роста запросов на облачные и *Ops-решения, NetApp приняла решение объединить команды, отвечающие за развитие локальных и облачных продуктов компании, в одну, стремясь таким образом дать клиентам комплексные предложения, отвечающие их потребностям.

Дисплеи LG One:Quick помогут организовать удалённую или коллективную работу 20.10.2021 Дисплеи LG One:Quick помогут организовать удалённую или коллективную работу
Компания LG Electronics (LG) анонсировала систему One:Quick — семейство специализированных дисплеев, которые позволят организовать эффективную коллективную работу, дистанционное взаимодействие сотрудников и пр.
В семейство вошли три модели: One:Quick Works (model 55CT5WJ), One:Quick Flex (model 43HT3WJ) и One:Quick Share (model SC-00DA).

Версия LG One:Quick Works представляет собой решение «всё в одном». Оно включает встроенный компьютер на базе Windows, дисплей с диагональю 55 дюймов и разрешением 4K UHD, камеру формата 4К (3840 × 2160) и микрофон. Система позволяет проводить видеоконференции и встречи в цифровом формате, обмениваться документами, различными файлами и пр.

Модель LG One:Quick Flex может монтироваться на специальную передвижную подставку. Дисплей формата 4K UHD с диагональю 43 дюйма поддерживает сенсорное управление, в том числе при помощи специального пера. Допускается использование экрана в альбомной и портретной ориентациях. В оснащение входят микрофон и камера с углом поля зрения 88 градусов. Панель отлично подходит для проведения презентаций, учебных занятий и т. п.

Наконец, устройство One:Quick Share предназначено для отображения экрана ноутбука на совместимых дисплеях. Для быстрого вывода изображения служит специальный модуль One:Quick Share USB.