Новости

EveryTag и OFT Group подписали соглашение о долгосрочном партнерстве 29.03.2022 EveryTag и OFT Group подписали соглашение о долгосрочном партнерстве
Внедрение решений EveryTag в комплексные проекты, реализуемые OFT, позволит оказать превентивные меры защиты конфиденциальных документов и распознать конкретный источник утечки в случае ее обнаружения.

В основе технологии EveryTag лежит запатентованный алгоритм невидимой маркировки, позволяющий создавать уникальные копии отображения информации для каждого пользователя. В отличие от DLP, такое решение позволяет маркировать документы при копировании, отправке по электронной почте, а также при выводе их на дисплей и/или печать.

Маркировка незаметна, текущей работе с документами никак не мешает. Вариативность исчисляется сотнями триллионов версий на каждый документ. И, в отличие от водяных знаков, маркировку нельзя просто «затереть» в графическом редакторе. В случае утечки распознавание автора скомпрометированной копии проводится модулем экспертизы в автоматическом режиме.

– OFT Group отличается огромной экспертизой в сфере информационных технологий и информационной безопасности, опытом внедрения новых продуктов на рынке, – комментирует партнерство Юлия Демьянчук, руководитель отдела маркетинга EveryTag. – А для нас важно окружать себя не только единомышленниками, но и действительно опытными, грамотными специалистами. Верим, что сотрудничество с OFT будет максимально плодотворным и поможет нам вместе повышать ценность понятия «российское программное обеспечение» в глазах клиентов.

К слову, о российских корнях компании: продукты линейки EveryTag внесены в реестр отечественного ПО, который курирует Минцифры. Следовательно, применение этой технологии для государственных организаций не только законодательно допустимо, но и рекомендовано министерством.

– Сотрудничество с EveryTag для нас – интересная, и крайне полезная в сегодняшних реалиях, практика применения российских технологий, – высказывается технический директор OFT Group Игорь Юрин. – Так, например, в дополнение к российским аппаратным и программным средствам информационной безопасности, а также в связке с отечественными DLP-продуктами, применение уникальных технологий и модулей EveryTag позволяет нам выстраивать комплексные системы полного контроля и защиты конфиденциальной информации, включая возможность идентификации источника скомпрометированных документов в случае их утечки. Тем более, что алгоритм создания персонифицированных уникальных копий рабочих документов с невидимой и неудаляемой маркировкой не имеет аналогов на рынке.

Обзор: AMD анонсировала Instinct MI200, самые быстрые в мире ускорители вычислений на базе CDNA 2 09.11.2021 Обзор: AMD анонсировала Instinct MI200, самые быстрые в мире ускорители вычислений на базе CDNA 2
В прошлом году AMD окончательно развела ускорители для графики и вычислений, представив Instinct MI100, первый продукт на базе архитектуры CDNA, который позволил компании противостоять NVIDIA. Теперь же AMD подготовила новую версию архитектуры CDNA 2 и ускорители MI200 на неё основе. Новинки, согласно внутренним тестам, в ряде задач на голову выше того, что сейчас может предложить NVIDIA.

Циркулировавшие ранее слухи оказались верны — MI200 являются двухчиповыми решениями с 2.5D-упаковкой кристаллов (GCD) самих ускорителей, четырёх линий Infinity Fabric между ними и восьми стеков памяти HBM2e (8192 бит, 1600 МГц, 128 Гбайт, 3,2 Тбайт/c). В данном случае используется мостик EFB (Elevated Fanout Bridge), который позволяет задействовать стандартные подложки, что удешевляет и упрощает производство и тестирование ускорителей, не потеряв при этом в производительности и, что важнее, без существенного увеличения задержек в обмене данными.

Несмотря на то, что в составе ускорителя два GCD, системе они представляются как единое целое с общей же памятью. Каждый GCD в случае CDNA 2 включает 112 CU (Compute Unit), но в конечных продуктах они задействованы не все. CU разбиты на четыре группы (с индивидуальным планировщиком) с общим L2-кешем объёмом 8 Мбайт и пропускной способностью 6,96 Тбайт/с, который поделён на 32 отдельных блока. А сами блоки имеют индивидуальные подключения к контроллерам памяти в GCD.

Важное отличие CDNA 2 заключается в «подтягивании» производительности векторных FP64- и FP32-вычислений — они исполняются с одинаковой скоростью в отличие от CDNA первого поколения. Кроме того, появилась поддержка сжатых (packed) инструкций для операций FMA/FADD/FMUL для FP32-векторов. Второй крупный апдейт касается матричных вычислений. Для них теперь тоже есть отдельная поддержка FP64, и с той же производительностью, что и для FP32. Новые инструкции рассчитаны на блоки 16×16×4 и 4×4×4.

Поддержка FP16/BF16 в матричных ядрах, конечно, тоже есть, что позволяет задействовать их и для ИИ-задач, а не только HPC. Подспорьем для них в некоторых задачах будут два блока VCN (Video Codec Next) в каждом GCD. Они поддерживают декодирование H.264/AVC, H.265/HEVC, VP9 и JPEG, а также кодирование H.264/H.265, что потенциально позволит более эффективно работать ИИ-алгоритмам с изображениями и/или видео.

Для обмена данными между ускорителями и CPU используется единая шина Infinity Fabric (IF) с поддержкой кеш-когерентности. Всего на ускоритель приходится до восьми внешних линий IF, а суммарная скорость обмена данными может достигать 800 Гбайт/c. В наиболее плотной компоновке из четырёх MI200 и одного EPYC каждый ускоритель имеет по две линии для связи с CPU и со своим соседом. Причём внутренние и внешние IF-линии образуют два двунаправленных кольца между ускорителями. Каждая IF-линия опирается на x16-подключение PCIe 4.0, но в данном случае есть ряд оптимизаций конкретно под HPC-системы HPE Cray.

Дополнительно у каждого ускорителя есть собственный root-комплекс, что позволяет напрямую подключить сетевой адаптер класса 200G. И это явный намёк на возможность непосредственного RDMA-соединения с внешними хранилищами, поскольку в такой схеме на локальные NVMe-накопители линий попросту не остаётся. Более простые топологии уже предполагают использование половины линий IF в качестве обычного PCIe-подключения и задействуют коммутатор(-ы) для связи с CPU и NIC. В этом случае IF-подключение остаётся только между процессорами. Зато в одной системе можно объединить восемь MI200.

Чипы ускорителей MI250X изготовлены по 6-нм техпроцессу FinFet, содержат 58 млрд транзисторов и предлагают 220 CU, включающих 880 ядер для матричных вычислений и 14080 шейдерных ядер второго поколения. У MI250 их 208, 832 и 13312 соответственно. Для обеих моделей уровень TDP составляет 500 или 560 Вт, поэтому поддерживается как воздушное, так и жидкостное охлаждение. В дополнение к OAM-версиям MI250(X) чуть позже появится и более традиционная PCIe-модель MI210.

Для сравнения — у NVIDIA A100 объём и пропускная способность памяти (тоже HBM2e) составляют до 80 Гбайт и 2 Тбайт/с соответственно. Шина же NVLink 3.0 имеет пропускную способность 600 Гбайт/c, а коммутатор NVSwitch для связи между восемью ускорителями — 1,8 Тбайт/с. Потребление SXM3-версии составляет 400 Вт. Стоит также отметить, что первая версия A100 появилась ещё весной 2020 года, и скоро ожидается анонс следующего поколения ускорителей на базе архитектуры Hopper. На носу и выход ускорителей Intel Xe Ponte Vecchio.

И если про первые мы пока ничего толком не знаем, то вторые, похоже, уже проиграли MI250X в «голой» производительности как минимум по одной позиции (FP32). AMD говорит, что создавала Instinct MI200 как серию универсальных ускорителей, пригодных и для «классических» HPC-задач, и для ИИ. Отсюда и практически пятикратная разница в пиковой FP64-производительности с NVIDIA A100.

Но вот с нейронками всё не так однозначно. Предпочтительным форматом для обучения у NVIDIA является собственный TF32, поддержка которого есть в Tensor-ядрах Ampere. Ядра для матричных вычислений в CDNA2 про него ничего не знают, поэтому сравнить производительность в лоб нельзя. Разница в BF16/FP16 между MI250X и A100 уже не так велика, так что AMD говорит о приросте в 1,2 раза для обучения со смешанной точностью.

Данные по INT8 и INT4 в презентацию не вынесены, что неудивительно. Пиковый показатель для обоих форматов у MI250X составляет 383 Топс, тогда как тензорные ядра NVIDIA A100 выдают 624 и 1248 Топс соответственно. В данном случае больший объём памяти сыграл бы на руку MI200 в задачах инференса для крупных моделей. Наконец, у A100 есть ещё одно преимущество — поддержка MIG (Multi-Instance GPU), которая позволяет более эффективно задействовать имеющиеся ресурсы, особенно в облачных системах.

Вместе с Instinct MI200 была анонсирована и новая версия открытой (open source) платформы ROCm 5.0, которая обзавелась поддержкой и различными оптимизациями не только для этих ускорителей, но и, например, Radeon Pro W6800. В этом релизе компания уделит особое внимание расширению программной экосистемы и адаптации большего числа приложений. Кроме того, будет развиваться и новый портал Infinity Hub, где будет представлено больше готовых к использованию контейнеров с популярным ПО с рекомендациями по настройке и запуску.

AMD Instinct MI200 появятся в I квартале 2022 года. Новинки, в первую очередь MI210, будут доступны у крупных OEM/ODM-производителей: ASUS, Atos (X410-A5 2U1N2S), Dell Technologies, Gigabyte (G262-ZO0), HPE, Lenovo и Supermicro. Ускорители Instinct MI250X пока остаются эксклюзивом для систем HPE Cray Ex. Именно они вместе с «избранными» процессорами AMD EPYC (без уточнения, будут ли это Milan-X) станут основой для самого мощного в США суперкомпьютера Frontier.

Окончательный ввод в эксплуатацию этого комплекса запланирован на будущий год. Ожидается, что его пиковая производительность превысит 1,5 Эфлопс. При этом он должен стать самой энергоэффективной системой подобного класса. А адаптация ПО под него позволит несколько потеснить NVIDIA CUDA в некоторых областях. И это для AMD сейчас, пожалуй, гораздо важнее, чем победа по флопсам.

Intel анонсировала сетевые процессоры Tofino 3: 25,6 Тбит/с + P4 29.10.2021 Intel анонсировала сетевые процессоры Tofino 3: 25,6 Тбит/с + P4
Осенью 2020 года Intel представила второе поколение сетевых процессоров Tofino, в котором были достигнуты скоростные показатели 12,8 Тбит/с и 6 млрд пакетов в секунду, а движок P4 сделал эти чипы действительно универсальными. Год спустя Intel анонсирует ещё более совершенные чипы Tofino. Процессоры для «умных» сетевых фабрик (IFP, Intelligent Fabric Processor), как их теперь называет Intel, Tofino 3 должны задать новую планку производительности и изменить подход к инфраструктуре ЦОД.

Свое видение сетевых архитектур Intel опубликовала в том же 2020 году — компания считает, что будущее лежит за «умными» сетевыми устройствами, программируемыми с помощью языка P4 и сочетающими в себе элементы традиционной электроники и фотоники. Уже тогда 16 оптических каналов обеспечивали работу четырёх портов класса 400G.

Новое поколение Tofino 3 подтверждает верность курса Intel: в третьем поколении линейную пропускную способность удалось повысить вдвое, с 12,8 до 25,6 Тбит/с, а скорость обработки трафика — с 6 до 10 млрд пакетов в секунду. Сердцем Tofino 3 являются 8 программируемых конвейеров, каждый из которых работает на частоте до 1,25 ГГц и обрабатывает по одному пакету за такт. Каждый из конвейеров может оперировать четырьмя 100G-подключениями или восемью 50G и располагает весьма приличным объёмом памяти SRAM и TCAM — 200 и 10,3 Мбит соответственно.

Возросли практически все параметры: если второе поколение Tofino имело буфер пакетов объёмом 64 Мбайт, то в третьем эта цифра уже может достигать 192 Мбайт, есть блоки SerDes 112G (PAM4), а шина PCIe 3.0 сменилась на более производительную PCIe 4.0. Более того, при необходимости объёмы буферов и таблиц могут быть значительно увеличены с помощью FPGA Intel Stratix, с которыми Tofino 3 умеет общаться напрямую.

В новой серии анонсировано четыре разных варианта кремния Tofino 3, отличающихся количеством конвейеров, конфигурацией блоков SerDes, объёмами буферов и количеством поддерживаемых портов. Но даже младший вариант превосходит Tofino 2 по многим параметрам, а старший, по мнению Intel, может претендовать на статус «самого продвинутого сетевого процессора современности» — единственный чип может обслуживать до 64 портов 400GbE или до 256 портов 100GbE (и ниже). Причём все — с глубокой телеметрией (In-band Network Telemetry) на лету без снижения производительности.

Платформа Intel Tofino опирается на P4 — это открытый язык, специально оптимизированный для программирования сетевых устройств, таких как коммутаторы и маршрутизаторы. В отличие от традиционных сетевых ASIC с жёстко заданной функциональностью, Intel Tofino позволяет адаптировать уже построенную сеть применительно к новым нуждам, например, оптимизировать её для систем машинного обучения. Для облегчения процесса разработки ПО для платформы Tofino Intel сопровождает её набором P4 Studio.

Унификация снизит расходы на развёртывание и поддержку таких ЦОД, интеллектуальная аналитика предотвратит возникновение проблем с сетью на самых ранних этапах, а поддержка доверенных доменов обеспечит высокий уровень безопасности. Новые IFP компания видит в качестве «цементирующего» звена в ЦОД ближайшего будущего, которое сможет связать в единое целое самые разные ресурсы: вычислители и ускорители любого типа, хранилища и пулы памяти, IPU/DPU/SmartNIC и коммутаторы.

C помощью анонсированного на днях набора разработки IPDK можно создать сквозные конвейеры с P4-обработкой трафика на всём пути его прохождения как для программных, так и для аппаратных решений. А поскольку набор является открытым, жёсткой привязки к решениям Intel нет. P4 весьма популярен, поэтому стоит ждать интеграции и с решениями других производителей.

Microsoft поможет некоммерческим организациям повысить свою защищённость 28.10.2021 Microsoft поможет некоммерческим организациям повысить свою защищённость
Компания Microsoft анонсировала программу по повышению безопасности для некоммерческих организаций и набор инструментов, дополняющий её решения в этой области и предлагающий мониторинг, уведомление об атаках, оценку рисков и другие подобные сервисы. Как отмечается, угрозы, нацеленные на этот сектор, продолжают расти, что требует реакции со стороны разработчиков.

В рамках своего «Доклада о цифровой защите за 2021 год» (2021 Digital Defense Report) Microsoft сообщила, что неправительственные и научно-исследовательские (аналитические) организации были вторым по популярности сектором среди киберпреступников. На них пришлось 31% отслеженных взломов и атак. Поэтому Microsoft намерена помочь 10 тыс. организациями в течение первого года и 50 тыс. — в течение 3 лет.

Предложение Microsoft включает бесплатный доступ к сервису AccountGuard, который отслеживает учётные записи пользователей в Microsoft 365 или персональные аккаунты сотрудников и руководителей в Outlook и Hotmail. Также некоммерческие организации получат возможность бесплатно получить оценку их безопасности, что позволит улучшить защиту и разработать план действий на случай возникновения проблем.

Также сотрудники некоммерческих организаций смогут получить доступ к обучающим материалам, чтобы узнать, как они могут защитить себя от сетевых атак и более безопасно работать из дома. ИТ-администраторы получат доступ к Security Skilling Hub и Microsoft 365 Administrator's Security Toolkit. Кроме того, Microsoft привлекла к участию в программе несколько партнёров: Risual, Redapt, MOQdigital и Open Systems.

Получена первая партия российских серверных Arm-процессоров Baikal-S: 48 ядер, 6 каналов DDR4-3200 и 80 линий PCIe 4.0 27.10.2021 Получена первая партия российских серверных Arm-процессоров Baikal-S: 48 ядер, 6 каналов DDR4-3200 и 80 линий PCIe 4.0
Компания «Байкал Электроникс» сообщила о получении первой партии инженерных образцов серверных Arm-процессоров Baikal-S объёмом 400 шт. Следующую партию компания ожидает получить в первом квартале следующего года, а первые массовые поставки (партия более 10 тыс. шт.) должны начаться до конца третьего квартала. Инженерные платы для разработчиков, созданы «Гаоди рус» (Dannie Group) и выпущены компанией «Рутек».

Baikal-S, изготавливаемый по 16-нм техпроцессу на TSMC, имеет 48 ядер Arm Cortex-A75 на базе достаточно свежей 64-бит архитектуры ARMv8.2-A, которая была анонсирована в 2017 году. Частота составляет до 2,2 ГГц, а уровень TDP равен 120 Вт. Заявленный диапазон рабочих температур простирается от 0 до +70 °C. Производительность в HPL составляет 385 Гфлопс, а рейтинг в SPEC CPU2006 INT — до 600.

L1-кеш имеет объём по 64 Кбайт для данных и инструкций, а L2 — 512 Кбайт на ядро. Любопытно, что в дополнение к L3-кешу (по 2 Мбайт на кластер) есть ещё и L4-кеш на 32 Мбайт. Контроллер памяти имеет шесть каналов DDR4-3200 ECC и обслуживает до 128 Гбайт на канал (суммарно 768 Гбайт на сокет). Кроме того, каждый процессор имеет 80 линий PCIe 4.0, из которых 48 линий делятся тремя интерфейсами CCIX x16. Также есть пара 1GbE-интерфейсов.

При этом новинка поддерживает аппаратную виртуализацию, Arm TrustZone и позволяет создавать четырёхсокетные платформы. Всё это делает её привлекательным решением не только для традиционных серверов и СХД, но и для и HCI- и HPC-систем. С экосистемой ПО проблемы вряд ли будут. Во-первых, для «малого» Байкал-М уже сейчас есть отечественные ОС и другие продукты. Во-вторых, серверные платформы Arm в мире развивают сразу несколько игроков, да и сама Arm стимулирует процесс разработки и портирования ПО.


Новости 1 - 5 из 114
Начало | Пред. | 1 2 3 4 5 | След. | Конец