• Главная
  • Карта сайта
Не найдено

Візуальне майбутнє аналітики і незалежна пам'ять

Вступну замітку липневого номера під назвою «Візуальна аналітика: в пошуках невідомого» (Visual Analytics: Seeking the Unknown) написали запрошені редактори Марк Стрейт (Marc Streit) і Олівер Бімбер (Oliver Bimber) Вступну замітку липневого номера під назвою «Візуальна аналітика: в пошуках невідомого» (Visual Analytics: Seeking the Unknown) написали запрошені редактори Марк Стрейт (Marc Streit) і Олівер Бімбер (Oliver Bimber). Сьогодні існує багато алгоритмічних і математичних рішень для аналізу великих наборів даних, таких як біомолекулярні дані або вихідний код складних програмних систем, - для отримання нових знань з цих даних потрібно вказати, що саме шукається: від кластерів пацієнтів з однією і тією ж генної експресією до помилок в програмних системах. Але що робити в тих випадках, коли невідомо, що слід шукати? Наприклад, невирішеною залишається проблема виявлення геномних змін і процесів, що ведуть до виникнення конкретних різновидів раку, але, оскільки у біологів відсутні необхідні підходи, вони не можуть розробити алгоритми, належним чином аналізують біомолекулярні дані.

Візуальна аналітика (visual analytics) - перспективна, швидко розвивається область, яка об'єднує переваги графічної візуалізації і потужність аналітичних висновків. Візуальна аналітика допомагає виявляти нові і невідомі знання шляхом знаходження зв'язків, патернів, трендів і аномалій в потенційно великих і складних масивах даних. Оскільки унікальні здібності аналітиків до осмислення даних тісно пов'язуються з методами інтерактивної візуалізації, візуальна аналітика може сприяти вчиненню відкриттів, які окремо не можуть зробити ні людина, ні комп'ютер.

Першу з п'яти статей тематичної добірки - «Інфраструктури візуальної аналітики: від управління даними до дослідження даних» (Visual Analytics Infrastructures: From Data Management to Exploration) - написав Жан-Даніель Фекете (Jean-Daniel Fekete). Однією з серйозних проблем візуальної аналітики є підтримка досліджень Великих Даних і взаємодій з ними. Виступаючи в цій ролі, візуальна аналітика повинна не тільки справлятися з управлінням даними і їх аналізом, а й задовольняти специфічні вимоги до дослідження даних. Стикаючись з великими обсягами незнайомих даних, люди потребують їх загальних описах, а також в можливості до переходу на більш детальний рівень. Це полегшує пошук патернів і кореляцій, знаходження феноменів, емпіричних моделей і теорій, пов'язаних з досліджуваними даними. З точки зору розробників ПЗ, реалізація програми візуальної аналітики ускладнюється тим, що в традиційних ІТ-інфраструктурах відсутні важливі сервіси, необхідні людським когнітивним системам при обробці складної інформації (рис.1). Вимоги візуальної аналітики не задовольняються навіть у найновіших засобах аналітики та управління даними. Для вирішення цих проблем необхідні роботи, в результаті яких візуальна аналітика зможе повністю впоратися з підтримкою інтерактивних досліджень Великих Даних.

Група проекту Aviz досліджує когнітивні можливості людей, що визначають вимоги до дослідження даних, а також те, як слід змінити візуалізацію інформації, щоб вона відповідала цим вимогам. Двома проблемами є обмежені можливості людського пізнання і зростаючий тиск на програмні системи з боку даних. Основною причиною цього тиску є невідповідність потребам візуальної аналітики можливостей засобів аналітики та управління даними. Усунення цієї невідповідності буде корисно не тільки для інструментів візуальної аналітики, але і для аналітики та управління даними в цілому.

Статтю «Підтримка візуальної аналітики для аналізу розвідувальних даних» (Visual Analytics Support for Intelligence Analysis) представили Карстен Горгій (Carsten Görg), Юн А Канг (Youn-ah Kang), Жічен Лью (Zhicheng Liu) і Джон Стаскою (John Stasko). Аналіз розвідувальних даних став ключовою сферою застосування візуальної аналітики з тих пір, як Міністерство національної безпеки США в 2004 році створив Національну центр візуалізації і аналітики (National Visualization and Analytics Center). У плані робіт цього центру позначалися завдання, дані та аналітичні сценарії, що стосуються в основному національної безпеки і запобігання терористичним актам. Велика частина проблем, згаданих в цьому документі, так і залишилася невирішеною, що, однак, не применшує перспективних технологій візуальної аналітики. З'явилося кілька комерційних інструментів візуальної аналітики для аналізу розвідувальних даних - зокрема, засіб Analyst's Notebook в складі пакету від IBM i2, система nSpace компанії Oculus і сімейство систем компанії Palantir. Однак для подальшого розвитку потрібні поглиблене розуміння специфіки аналізу розвідувальних даних і ролі аналітиків, а також з'ясування того, яким чином візуальна аналітика може допомогти.

Масштабність, різнорідність і складність розвідувальної інформації викликають потребу в залученні до аналізу великих когнітивних можливостей - дані часто представляються у вигляді розповідних текстів, які чинять спротив автоматичного аналізу. Проблемними аспектами дослідження є вартість перегляду тексту, оцінки його важливості і вибору елементів, які заслуговують на більшу увагу; труднощі генерації і перевірки гіпотез.

У період з 2008 до 2013 року автори виконали кілька проектів, присвячених аналізу розвідувальних даних і виявлення характеристик процесу аналізу. Крім того, була розроблена система візуальної аналітики текстів Jigsaw, інтегруюча кошти обчислювального аналізу текстів з можливостями інтерактивної візуалізації для дослідження колекцій неструктурованих і квазіструктурірованних текстових документів.

Авторами статті «Візуалізація та аналіз великомасштабних графів» (Large-Scale Graph Visualization and Analytics) є Кван Лью Ма (Kwan-Liu Ma) і Кріс Мюлдер (Chris Muelder). Зростаюча популярність мережевих додатків викликає потребу в коштах ефективного аналізу складних наборів даних: «Вікіпедія» включає мільйони статей, які утворюють мережу через перехресні посилання; Facebook пов'язує понад мільярд користувачів в складну структуру друзів, ігор, рекламних оголошень; і т. д. Ці та подібні їм мережі продовжують розширюватися і ускладнюватися, і для вивчення їх динаміки прості статистичні дані неефективні, тому все частіше аналітики вважають за краще застосовувати візуалізацію. Наприклад, аналітики соціальних мереж можуть виявити особливості освіти груп друзів, а аналіз розподільної електричної мережі може виявити, що в кожен момент потрібно для удосконалення інфраструктури.

Візуалізація графів (graph drawing) - область, що виникла півстоліття тому для візуалізації структури мереж. Одним з найбільш поширених і інтуїтивно зрозумілих уявлень є діаграма «вузол - ребро», і хоча цей метод відносно простий і придатний для візуалізації невеликих мереж, він непридатний для великих і складних мереж. Додаткові проблеми виникають при роботі з динамічними мережами (такими, як Facebook), які розростаються при утворенні кожної нової дружньої зв'язку і скорочуються, коли відносини припиняються. Оскільки кожне додавання або видалення вузла може впливати на більш масштабні патерни (наприклад, кластери), знаходження і розуміння сенсу невеликих змін можуть забезпечити отримання знань про розвиток мережі в цілому.

Візуалізація і аналіз графів вимагають подальших досліджень, і нові методи повинні зачіпати всі аспекти уявлення мереж: від фундаментальної проблеми розміщення великих графів до аналізу графів і спрощення динамічно змінюваних графів. Автори виявили невирішені проблеми і запропонували шляхи до їх вирішення.

Статтю «Візуальний аналіз текстових потоків в реальному часі» (Real-Time Visual Analytics for Text Streams) представили Даніель Кейм (Daniel Keim), Мілош Крстажіч (Milos Krstajic), Крістіан Рохрданц (Christian Rohrdantz) і Тобіас Шрек (Tobias Schreck). Щодня в кіберпростір вводяться величезні обсяги текстових даних, які генеруються професіоналами (наприклад, тексти новин) або звичайними користувачами через блоги, соціальні мережі або коментарі на сайтах. Велика частина генерованого тексту загальнодоступна, але значна частка призначена тільки для внутрішнього використання. Наприклад, доступ до цінної інформації, одержуваної при опитуванні користувачів інтернет-магазину, може бути обмежений певною групою осіб або організацій. Крім того, групи користувачів можуть породжувати важливий контент при виникненні нових подій, появу нових продуктів, послуг і компаній.

При належній обробці ці різнорідні потоки тексту дозволяють забезпечити миттєвий зворотний зв'язок, відстежувати і вдосконалювати бізнес-процеси. Отримані знання можна використовувати для швидкого поліпшення ситуації, уникнувши втрати клієнтів або підриву репутації компанії.

Теоретично в реальному часі можна обробляти будь-яку інформацію, але при обробці текстів виникають затримки - в них може бути присутнім як стосується справи, так і зайва інформація, а семантична структура може бути відсутнім. Для відбору релевантної інформації і вилучення семантичної структури (події, теми, настрою і т. Д.) Аналітикам потрібні методи автоматичної обробки текстів. Незалежно від витягнутої семантичної структури тільки люди можуть осмислити отримані результати і зробити висновки, придатні для прийняття рішень. Інтерактивна візуалізація може усунути розрив між обчислювальними методами і вимогами аналітиків - саме ця ідея є рушійною силою візуальної аналітики.

У дослідженні, виконаному авторами, розроблений підхід до аналізу текстових потоків відповідно до трендами, що виявляються на основі аналізу щільності. В ході дослідження виявлено кілька проблем в області обробки та аналізу текстів в реальному часі. Побудована таксономія існуючих методів обробки текстів з урахуванням можливих компромісів між точністю і ефективністю.

Останню статтю тематичної добірки написав Ярку ван Вайк (Jarke van Wijk), вона називається «Оцінка: проблема візуальної аналітики» (Evaluation: A Challenge for Visual Analytics). Візуальна аналітика допомагає людям розуміти сенс різнорідних даних великого обсягу завдяки інтеграції декількох методологій аналізу даних, але досягнення хороших результатів залишається проблематичним. В цілому в області візуальної аналітики відсутні переконливі моделі та теорії - візуальна аналітика ще не скоро стане зрілою технологією.

Важливу роль у розвитку цієї галузі гратимуть методи оцінки якості артефактів візуальної аналітики, включаючи інструменти, методи, моделі та теорії. Якість зачіпає ефективність і результативність і включає такі аспекти, як задоволеність користувачів, продуктивність, простота використання, а також те, як даний артефакт вписується в наявні потоки робіт. Результати оцінки важливі для всіх зацікавлених осіб: інтеграторам і аналітикам потрібно знати якість артефактів; розробникам систем, що спирається на використання методів візуальної аналітики, потрібні критерії вибору конкретного набору методів. Крім того, хороші оціночні результати можуть допомогти переконати інтеграторів і користувачів використовувати нові методи. Однак, незважаючи на зростаючу важливість візуальної аналітики, забезпечення належної оцінки важко. Обговоренню наявних проблем присвячена основна частина статті.

Поза тематичної добірки опубліковані дві великі статті. Діана Кук (Diane Cook), Арон Крендал (Aaron Crandall), Брайан Томас (Brian Thomas) і Нараянан Крішнан (Narayanan Krishnan) представили статтю «CASAS: розумний будинок в коробці» (CASAS: A Smart Home in a Box). В останнє десятиліття методи машинного навчання і технології повсюдного комп'ютингу стали настільки зрілими, що з'явилася можливість інтегрованої автоматичної підтримки повсякденному середовища проживання людей. Фізичним втіленням такої системи є розумний будинок. Програмне забезпечення спирається на дані сенсорної мережі і методи штучного інтелекту для отримання знання про стан фізичного середовища будинку і його мешканців. На основі цього знання вдаються до дій для досягнення заданих цілей. Багато дослідників відзначають виняткову важливість потенційного використання технології розумних будинків в таких додатках, як моніторинг стану здоров'я людей і оптимізація енергоспоживання, однак більшість наявних реалізацій в основному орієнтовано на лабораторні умови. Головні труднощі пов'язані зі створенням повністю функціональної інфраструктури розумного будинку.

Проект має на меті CASAS (рис. 2) - розробка розумного будинку в коробці.

Остання велика стаття липневого номера називається «Оптимальний розподіл ресурсів з використанням MultiAmdahl» (Optimal Resource Allocation with MultiAmdahl), її представили Цахи Зіденберг (Tsahee Zidenberg), Ісаак Кеслассі (Isaac Keslassy) і Урі Вейзер (Uri Weiser). У нових неоднорідних мультипроцесорних кристалах інтегрується велике число різних обчислювальних блоків, що включають великі ядра для послідовної обробки і кілька дрібніших ядер для паралельної обробки, а також графічні процесори, допоміжні процесори (helper processor), сигнальні процесори, програмовані логічні матриці (FPGA) і спеціалізовані жорстко скомпоновані схеми (application-specific hardware circuit). Всі ці блоки, розроблені в розрахунку на конкретну робоче навантаження, можуть налаштовуватися під заданий додаток, що стосується такого додатку робить їх більш потужними, ніж блоки загального призначення. Однак неоднорідність не дається даром - доступні ресурси кристала обмежені (площа пластини, загальна споживана потужність) і за них конкурують всі компоненти кристала. У фреймворку MultiAmdahl розподіл ресурсів всередині кристалу трактується як завдання оптимізації, на вході якої робоче навантаження системи, характеристики різних блоків, доступні ресурси кристала і цільова функція. Для вирішення цієї проблеми використовуються множники Лагранжа.

Тема серпневого номера - нові технології комп'ютерної пам'яті (Next-Generation Memory). Так само назвали свою вступну замітку запрошені редактори: Грег Етвуд (Greg Atwood), Су-Ік Чий (Soo-Ik Chae) і Саймон Шим (Simon SY Shim). Технології зберігання даних, що використовуються в сучасних комп'ютерах, з'явилися в 1970-і роки на зорі становлення індустрії напівпровідників. Твердотельная пам'ять - статична пам'ять (RAM), динамічна пам'ять (DRAM) і флеш-пам'ять (Electronically Programmable Read Only Memory, EPROM) - грунтувалася на транзисторних електронних пристроях, а механічна пам'ять (стрічки і диски) - на магнітних носіях. Ці два різновиди пристроїв зберігання прожили довге життя, причому відповідно до закону Мура кожні два роки подвоюється щільність запису і вдвічі зменшувалась вартість. Пам'ять є визначальним компонентом багатьох сучасних портативних пристроїв, які стали обов'язковою складовою життя людей. У міру того як продовжують зростати обсяги даних, які повинні бути миттєво доступні мільйонам користувачів, технологія пам'яті стає і рішенням, і перешкодою, спонукаючи індустрію переглядати способи використання пам'яті. Одним з найкращих прикладів цієї тенденції є широке впровадження твердотільних накопичувачів (Solid-State Drive, SSD).

Швидке нарощування щільності запису і падіння вартості стали можливі завдяки постійному зменшенню розмірів елементів. На жаль, це масштабування обмежено законами фізики - в сучасних 20-нанометрових багаторівневих осередках (MultiLevel Cell, MLC) стан пам'яті зберігається лише кількома десятками електронів. Для використання такої пам'яті в системах потрібні все більш складні пристрої управління. На щастя, можливість сучасних засобів виробництва працювати з матеріалами на атомному рівні спільно з розвитком теоретичних основ пристроїв зберігання даних відкривають шляхи до нових досягнень в цій області.

Перша стаття тематічної добіркі назівається «Флеш-пам'ять NAND: проблеми и возможности» (NAND Flash Memory: Challenges and Opportunities), ее написали Ян Лі (Yan Li) и Хандкер Квадер (Khandker Quader). З часу з'явилися на Сайти Вся в 1987 году флеш-пам'яті NAND ее відносно низька ВАРТІСТЬ, компактність, безшумність, ШВИДКІСТЬ и міцність привели до широкого использование в мобільніх платформах и відмові від жорсткий дисків в багатьох клієнтськіх и корпоративних Додатках. В останні роки розробник змоглі успешно масштабуваті двовімірну флеш-пам'ять NAND (2D NAND) до 20-нанометровій технології, но подалі масштабування может стать проблемою.Більше. Хоча Нові альтернативи, Такі як трівімірна резисторная пам'ять з довільнім доступом (3D resistive RAM, ReRAM), націлені на заміну 2D NAND, міцні позіції цієї технології на Сайти Вся прістроїв зберігання Даних и пріваблівість низьких енергоспоживання не дозволяти легко ее вітісніті. При наявності цих серйозних переваг флеш-пам'ять NAND може частково витіснити DRAM, і експерти очікують істотного розширення її використання в мобільних, корпоративних і клієнтських продуктах. За прогнозами аналітиків Gartner, в найближчі п'ять років число використовуваних накопичувачів SSD потроїться, а ємність SSD зросте в середньому в чотири-п'ять разів.

Широке поширення флеш-пам'яті призведе до подальшого зменшення її вартості (рис. 3), однак мініатюризація пристроїв флеш-пам'яті NAND ставить перед системами управління проблему підтримки надійності при збереженні проблеми зниженою зносостійкості. Для підтримки надійності флеш-пам'яті NAND масштабу менше 19 нм потрібні нові алгоритми організації пам'яті і систем управління нею. Багато досліджень присвячено сьогодні архітектурі пам'яті, її надійності, споживаної потужності і високошвидкісним інтерфейсів вводу-виводу, а в ряді проектів проблеми масштабування двовимірної флеш-пам'яті NAND вирішуються за рахунок переходу до тривимірним осередкам і використання інших технологій.

Автори статті «Яке майбутнє у технологій резистентної пам'яті?» (What Lies Ahead for Resistance-Based Memory Technologies?) - Юн-Жон Сон (Yoon-Jong Song), Гіта Жеон (Gitae Jeong), Ін-ДІУ Бейк (In-Gyu Baek) і Жундал Чой (Jungdal Choi). Пристрої пам'яті швидко наближаються до технологічної межі можливості масштабування, що стимулює інтерес з новими технологіями. У традиційній пам'яті, такий як DRAM і флеш-пам'ять NAND, використовується ємність електричного заряду, що зберігається в комірці пам'яті, і при скороченні обсягу пристрої зберігання доводиться враховувати можливість неконтрольованого падіння ємності в осередку зменшеного розміру. Деякі дослідники намагаються вирішити цю проблему шляхом використання нових архітектур - наприклад, флеш-пам'яті NAND з вертикальним (vertical NAND). Інші розробляють нові пристрої резистентної пам'яті, такий як пам'ять на основі фазових переходів (phase-change RAM, PRAM), магнітна пам'ять з довільним доступом (magnetic RAM, MRAM) і резистентна пам'ять (resistive RAM, ReRAM). Ці різновиди незалежній пам'яті швидше ємнісний пам'яті і легше масштабируются до розмірів, менших 20 нм. У кожної з нових різновидів пам'яті є свій сегмент ринку. MRAM демонструє найкращі швидкісні характеристики, що робить цю пам'ять незалежній альтернативою DRAM, а PRAM і ReRAM швидше флеш-пам'яті. Для кращого розуміння можливих варіантів використання пам'яті виробники напівпровідникових пристроїв повинні оцінювати ключові характеристики і існуючі технологічні процеси цих трьох нових видів пам'яті, огляд можливостей яких наводиться в статті.

Статтю «Перетворення клієнтської системи зберігання при використанні незалежній пам'яті» (The Nonvolatile Memory Transformation of Client Storage) написали Ембер Хаффман (Amber Huffman) і Дейл Джунманн (Dale Juenemann). Впровадження твердотільних накопичувачів в серійні комп'ютерні системи призводить до зміни вигляду клієнтських систем зберігання даних: з'являються нові інтерфейси з пристроями зберігання даних, орієнтовані на використання незалежної пам'яті (nonvolatile memory, NVM), і нові рішення кешування, що розширюють гідності NVM для більш широкого кола користувачів за більш доступну ціну. На рівні апаратних інтерфейсів інтерфейс Serial ATA (SATA) замінюється послідовним інтерфейсом PCI Express (PCIe) для забезпечення більш високої продуктивності. Для розкриття всього потенціалу NVM в індустрії специфікований програмний інтерфейс NVM Express (NVMe), оптимізований для роботи з SSD через PCI. Інтерфейс NVMe був розроблений з нуля з урахуванням всіх особливостей NVM для отримання надійного рішення з низьким рівнем затримки.

На рівні системи зберігання дослідники борються з проблемою високої питомої вартості (в розрахунку на гігабайт) флеш-пам'яті NAND в порівнянні з традиційними жорсткими дисками. Для досягнення продуктивності, аналогічної продуктивності SSD, за доступну ціну потрібні механізми кешування, масштабовані до ємності в кілька гігабайтів.

Статтю «Як незалежна пам'ять змінить програмні системи» (How Persistent Memory Will Change Software Systems) представив Аніруд Бадам (Anirudh Badam). Прийнято вважати, що швидка і енергозалежна основна пам'ять адресується з точністю до байта, а зовнішня незалежна пам'ять - з точністю до блоку. Однак нові технології незалежної пам'яті скоро змусять багато в чому відмовитися від цих уявлень, зокрема, обіцяється, що незалежна пам'ять буде поєднувати можливість байтовой адресації і швидкість DRAM з енергонезалежністю дискової і флеш-пам'яті, забезпечуючи при цьому велику ємність і кращу енергоефективність.

В останнє десятиліття накопичувачі на основі флеш-пам'яті NAND привели до революційних змін в індустрії зберігання даних - скорочуючи на два порядки затримку введення-виведення в порівнянні з магнітними дисками, SSD змінюють способи використання додатками зовнішньої пам'яті. Багато прототипи незалежній пам'яті обіцяють привести до аналогічних перетворень підсистем основний пам'яті, забезпечуючи енергонезалежність і потенційну ємність, на порядок більшу допустимої ємності DRAM, при збереженні того ж рівня затримки. Байтовая адресація дуже хороша для файлових систем і СУБД, проте для використання властивості енергонезалежності пам'яті будуть потрібні зміни в управлінні віртуальною пам'яттю. Дослідники вже вивчають системи основний і зовнішньої пам'яті, в яких використовується незалежна пам'ять. Експерименти в Microsoft Research показують, що системи, засновані на флеш-пам'яті, володіють багатьма недоліками, властивими і прототипам на незалежній пам'яті.

Останню статтю тематичної добірки під назвою «Реорганізація, скорочення, повторне використання: реструктуризація стека введення-виведення для майбутніх систем зберігання даних» (Refactor, Reduce, Recycle: Restructuring the I / O Stack for the Future of Storage) написали Стівен Свенсон (Steven Swanson ) і Адріан Колфілд (Adrian Caulfield). Створення в 1956 році першого накопичувача на жорстких магнітних дисках докорінно змінило способи зберігання даних в комп'ютерних системах, але з тих пір розробники були змушені боротися з недостатньою продуктивністю систем зберігання даних, яка сильно відстає від продуктивності основної пам'яті, процесорів і мереж. Ця реальність вплинула на еволюцію комп'ютерної апаратури, системного і прикладного програмного забезпечення - зокрема, низька продуктивність апаратури зберігання даних привела до того, що продуктивність програм управління системою зберігання (локальних і віддалених файлових систем, драйверів апаратури зберігання даних, мереж зберігання даних, СУБД і систем підтримки віртуальної пам'яті) несуттєва для загальної продуктивності системи. Поява швидкої незалежній пам'яті, такий як флеш-пам'ять і пам'ять на основі фазових переходів (phase-change memory, PCM), повністю змінює ставлення до продуктивності систем зберігання даних - від розробників тепер необхідне переосмислення ролі ПО. Затримки і споживання енергії в системах зберігання з вини програмного забезпечення стануть причиною настільки великих витрат, що будуть змушувати переробляти ці системи.

В існуючих дискових системах ПО грає важливу роль для підвищення продуктивності - наприклад, ретельне планування операцій доступу до зовнішньої пам'яті або більш інтелектуальне управління буферним пулом баз даних може істотно скоротити число і вартість операцій введення-виведення. Але на виконання всього цього коду витрачаються час і енергія. З іншого боку, для дискових систем витрати на ПО мізерні порівняно з витратами на апаратуру - наприклад, для доступу до четирехкілобайтному блоку стандартного диска на програмний стек Linux припадають лише 0,3% затримки і 0,4% енергоспоживання. Однак перехід до NVM змінює положення - при такому ж четирехкілобайтном доступі на програмне забезпечення припадають вже 70% затримок і 87,7% енергоспоживання. Це означає, що використання існуючих програмних стеків для роботи із зовнішньою пам'яттю при переході до нових технологій неефективно. Потрібно переосмислити роль і структуру програмного забезпечення та апаратури в нових системах зберігання - автори статті виявили принципи ефективного використання NVM.

Поза тематичної добірки опублікована стаття «Аналіз бінарного коду» (Binary Code Analysis), автори якої - Кайпін Лью (Kaiping Liu), Хі Бен Куан Тан (Hee Beng Kuan Tan) і Ксу Чен (Xu Chen). Ключове завдання кібербезпеки полягає у виявленні вразливостей програмного забезпечення та виявлення шкідливого коду, проте, якщо вихідний текст програми недоступний (завжди - в разі шкідливих програм, зазвичай - в разі програмних систем), дослідники безпеки змушені аналізувати бінарний код. Методи аналізу бінарного коду діляться на статичні і динамічні. Статичний аналіз полягає в дослідженні програми без її запуску для отримання загальних характеристик програми, які є її інваріантними властивостями. Динамічний аналіз полягає в дослідженні програми на основі конкретних трас виконання. Проблемою аналізу бінарного коду є непомітність даних і коду. Крім того, оскільки бінарний код позбавлений явних абстракцій (наприклад, абстракції функції), структуру програми можна вивести лише на основі команд передачі управління. Проте дослідники розробили кілька методів аналізу бінарного коду, огляду яких і присвячена стаття.

До нової зустрічі, Сергій Кузнецов, [email protected] .

Але що робити в тих випадках, коли невідомо, що слід шукати?
Автори статті «Яке майбутнє у технологій резистентної пам'яті?
What Lies Ahead for Resistance-Based Memory Technologies?
Провайдеры:
  • 08.09.2015

    Batyevka.NET предоставляет услуги доступа к сети Интернет на территории Соломенского района г. Киева.Наша миссия —... 
    Читать полностью

  • 08.09.2015
    IPNET

    Компания IPNET — это крупнейший оператор и технологический лидер на рынке телекоммуникаций Киева. Мы предоставляем... 
    Читать полностью

  • 08.09.2015
    Boryspil.Net

    Интернет-провайдер «Boryspil.net» начал свою работу в 2008 году и на данный момент является одним из крупнейших поставщиков... 
    Читать полностью

  • 08.09.2015
    4OKNET

    Наша компания работает в сфере телекоммуникационных услуг, а именно — предоставлении доступа в сеть интернет.Уже... 
    Читать полностью

  • 08.09.2015
    Телегруп

    ДП «Телегруп-Украина» – IT-компания с 15-летним опытом работы на рынке телекоммуникационных услуг, а также официальный... 
    Читать полностью

  • 08.09.2015
    Софтлинк

    Высокая скоростьМы являемся участником Украинского центра обмена трафиком (UA — IX) с включением 10 Гбит / сек... 
    Читать полностью