50 hashes per hour

Raspberry Pi Zero

How a harmless-looking insider can compromise your network

How often do you turn off your computer when you go home from work? We bet you leave it on so you don’t have to wait until it boots up in the morning. It’s possible that your IT staff have trained you to lock your system for security reasons whenever you leave your workplace. But locking your system won’t save your computer from a new type of attack that is steadily gaining popularity on Raspberry Pi enthusiast forums.

We previously investigated the security of charging a smartphone via a USB port connection. In this research we’ll be revisiting the USB port – this time in attempts to intercept user authentication data on the system that a microcomputer is connected to. As we discovered, this type of attack successfully allows an intruder to retrieve user authentication data – even when the targeted system is locked. It also makes it possible to get hold of administrator credentials. Remember Carbanak, the great bank robbery of 2015, when criminals were able to steal up to a billion dollars? Finding and retrieving the credentials of users with administrative privileges was an important part of that robbery scheme.

In our research we will show that stealing administrator credentials is possible by briefly connecting a microcomputer via USB to any computer within the corporate perimeter. By credentials in this blogpost we mean the user name and password hash and we won’t go into detail how to decipher the retrieved hash, or how to use it in the pass-the-has types of attacks. What we’re emphasizing is that the hardware cost of such an attack is no more than $20 and it can be carried out by a person without any specific skills or qualifications. All that’s needed is physical access to corporate computers. For example, it could be a cleaner who is asked to plug “this thing” into any computer that’s not turned off.

Insider doesn't have to be very qualified

We used a Raspberry Pi Zero in our experiments. It was configured to enumerate itself as an Ethernet adapter on the system it was being plugged into. This choice was dictated by the popularity of Raspberry Pi Zero mentions on forums where enthusiasts discuss the possibility of breaking into information systems with single-board computers. This popularity is understandable, given the device capabilities, size and price. Its developers were able to crank the chip and interfaces into a package that is slightly larger than an ordinary USB flash drive.

Raspberry Pi Zero

Yes, the idea of using microcomputers to intercept and analyze network packets or even as a universal penetration testing platform is nothing new. Most known miniature computing devices are built on ARM microprocessors, and there is a special build of Kali Linux that is specifically developed for pen testing purposes.

There are specialized computing sticks that are designed specifically for pen testing purposes, for example, USB Armory. However, with all its benefits, like integrated USB Type A connector (Raspberry Pi requires an adapter), USB Armory costs much more (around $135) and absolutely pales in comparison when you look at its availability vs. Raspberry Pi Zero. Claims that Raspberry Pi can be used to steal hashes when connected via USB to a PC or Mac surfaced back in 2016. Soon there were claims that Raspberry Pi Zero could also be used for stealing cookies fromh3 browsers – something we also decided to investigate.

So, armed with one of the most widespread and available microcomputers at the moment, we conducted two series of experiments. In the first, we attempted to intercept user credentials within the corporate network, trying to connect to laptop and desktop computers running different operating systems. In the second, we attempted to retrieve cookies in a bid to restore the user session on a popular website.

Experiment 1: stealing domain credentials

Methodology

The key principle behind this attack is emulation of the network adapter. We had absolutely no difficulties in finding the module emulating the Ethernet adapter under Raspbian OS (for reference, at the time of writing, we hadn’t found a similar module for Kali Linux). We made a few configuration changes in the cmdline.txt and config.txt files to load the module on boot.

cmdline.txt

config.txt

A few extra steps included installing the python interpreter, sqlite3 database library and a special app called Responder for packet sniffing:

apt-get install -y python git python-pip python-dev screen sqlite3
pip install pycrypto
git clone
https://github.com/spiderlabs/responder

And that wasn’t all – we set up our own DHCP server where we defined the range of IP addresses and a mask for a subnet to separate it from the network we’re going to peer into. The last steps included configuring the usb0 interface and automatic loading of Responder and DHCP server on boot. Now we were ready to rock.

Results

Just as soon as we connected our “charged” microcomputer to Windows 10, we saw that the connected Raspberry Pi was identified as a wired LAN connection. The Network Settings dialogue shows this adapter as Remote NDIS Internet sharing device. And it’s automatically assigned a higher priority than others.

A fake network adapter is displayed

Responder scans the packets that flow through the emulated network and, upon seeing the username/password hash pairs, directs them to a fake HTTP/HTTPS/NTLM (it supports v1 and v2) server. The attack is triggered every time applications, including those running in the background, send authentication data, or when a user enters them in the standard dialogue windows in the web browser – for example, when user attempts to connect to a shared folder or printer.

Standard authentication window

Intercepting the hash in automatic mode, which is effective even if the system is locked, only works if the computer has another active local network connection.

As stated above, we tried this proof of concept in three scenarios:

  1. Against a corporate computer logged into a domain
  2. Against a corporate computer on a public network
  3. Against a home computer

In the first scenario we found that the device managed to intercept not only the packets from the system it’s connected to via USB but also NTLM authentication requests from other corporate network users in the domain. We mapped the number of intercepted hashes against the time elapsed, which is shown in the graph below:

Playing around with our “blackbox” for a few minutes, we got proof that the longer the device is connected, the more user hashes it extracts from the network. Extrapolating the “experimental” data, we can conclude that the number of hashes it can extract in our setting is around 50 hashes per hour. Of course, the real numbers depend on the network topology, namely, the amount of users within one segment, and their activity. We didn’t risk running the experiment for longer than half an hour because we also stumbled on some peculiar side effects, which we will describe in a few moments.

The extracted hashes are stored in a plain-text file:

Hashes in the plaintext file

In the second scenario we were only able to extract the connected system’s user credentials: domain/Windows name and password hash. We might have gotten more if we had set up shared network resources which users could try to access, but we’re going to leave that outside the scope of this research.

In the third scenario, we could only get the credentials of the owner of the system, which wasn’t connect to a domain authentication service. Again, we assume that setting up shared network resources and allowing other users to connect to them could lead to results similar to those we observed in the corporate network.

The described method of intercepting the hashes worked on Mac OS, too. When we tried to reach an intranet site which requires entering a domain name, we saw this dialogue warning that the security certificate is invalid.

Certificate warning

Now, the interesting side effect we mentioned above was that when the device was connected to a[ny] system in the network, tasks sent out to the network printer from other machines in the same network were put on hold in the printer queue. When the user attempted to enter the credentials in the authentication dialogue window, the queue didn’t clear. That’s because these credentials didn’t reach the network printer, landing in the Raspberry Pi’s flash memory instead. Similar behavior was observed when trying to connect to remote folders via the SMB protocol from a Mac system.

Network printing error

Bonus: Raspberry Pi Zero vs. Raspberry Pi 3

Once we saw that the NTLM systems of both Windows and Mac had come under attack from the microcomputer, we decided to try it against Linux. Furthermore, we decided to attack the Raspberry Pi itself, since Raspbian OS is built on the Debian Weezy core.

We reproduced the experiment, this time targeting Raspberry Pi 3 (by the way, connecting it to the corporate network was a challenging task in itself, but doable, so we won’t focus on it here). And here we had a pleasant surprise – Raspbian OS resisted assigning the higher priority to a USB device network, always choosing the built-in Ethernet as default. In this case, the Responder app was active, but could do nothing because packets didn’t flow through the device. When we manually removed the built-in Ethernet connection, the picture was similar to that we had observed previously with Windows.

Raspberry Pi Zero hacking into Raspberry Pi 3

Similar behavior was observed on the desktop version of Debian running on Chromebook – the system doesn’t automatically set the USB Ethernet adapter as default. Therefore, if we connect Raspberry Pi Zero to a system running Debian, the attack will fail. And we don’t think that creating Raspberry Pi-in-the-middle attacks is likely to take off, because they are much harder to implement and much easier to detect.

Experiment 2: stealing cookies

Methodology

While working on the first experiment, we heard claims that it’s possible to steal cookies from a PC when a Raspberry Pi Zero is connected to it via USB. We found an app called HackPi, a variant of PoisonTap (an XSS JavaScript) with Responder, which we described above.

The microcomputer in this experiment was configured just like in the previous one. HackPi works even better at establishing itself as a network adapter because it has an enhanced mechanism of desktop OS discovery: it is able to automatically install the network device driver on Windows 7/8/10, Mac and –nix operating systems. While in the first series of experiments, an attack could fail on Windows 7, 8 or Vista if the Remote NDIS Internet sharing device didn’t install itself automatically (especially when the PC is locked). And, unlike in the previous series, HackPi never had trouble assigning itself the default network adapter priority under Mac OS either.

What differs from the first experiment is that the cookies are stolen using the malicious Java Script launched from the locally stored web page. If successful, PoisonTap’s script saves the cookies intercepted from sites, a list of which is also locally stored.

Results

If the computer is not locked and the user opens the browser, Java Script initiates the redirecting of web requests to a malicious local web page. Then the browser opens the websites from the previously defined list. It is indeed quite spectacular:

Poisontap stealing cookies

If the user does nothing, Raspberry Pi Zero launches the default browser with URL go.microsoft.com in the address line after a short timeout. Then the process goes ahead as described. However, if the default browser has no cookies in the browser history, the attackers gain nothing.

Among the sites we’ve seen in the list supplied with the script were youtube.com, google.com, vk.com, facebook.com, twitter.com, yandex.ru, mail.ru and over 100 other web addresses. This is what the log of stolen cookies looks like:

Cookies in the plaintext

We checked the validity of stolen cookies using the pikabu.ru website as an example by pasting the info into a clean browser field on other machines and were able to get hold of the user’s account along with all the statistics. On another website belonging to a railroad company vending service, we were able to retrieve the user’s token and take over the user’s account on another computer, because authentication protocol used only one LtpaToken2 for session identification.

Session restored using stolen cookies

Now this is more serious, because in this case the criminals can get information about previous orders made by the victim, part of their passport number, name, date of birth, email and phone number.

Session restored using stolen cookies

One of the strong points of this attack is that enthusiasts have learned how to automatically install the network device driver on all systems found in today’s corporate environments: Windows 7/8/10, Mac OS X. However, this scenario doesn’t work against a locked system – at least, for now. But we don’t think you should become too complacent; we assume it’s only a matter of time before the enthusiasts overcome this as well. Especially given that the number of these enthusiasts is growing every day.

Also, the malicious web page is blocked by all Kaspersky Lab products, which detect it as Trojan.JS.Poisontap.a. We also assume that this malicious web page will be blocked by the products of all other major anti-malware vendors.

Malicious code blocked by security solution

 

Conclusions

There is already a wide array of single-board microcomputers: from the cheap and universal Raspberry Pi Zero to computing sticks specifically tuned for penetration testing, which cannot be visually differentiated from USB flash drives. To answer the main question of just how serious this threat is, we can say that at the moment it is overrated. However, we don’t advise underestimating the capabilities of IoT enthusiasts and it’s better to assume that those obstacles which we discovered in our experiment, have already been overcome.

Right now we can say that Windows PCs are the systems most prone to attacks aimed at intercepting the authentication name and password with a USB-connected Raspberry Pi. The attack works even if the user doesn’t have local or system administrator privileges, and can retrieve the domain credentials of other users, including those with administrator privileges. And it works against Mac OS systems, too.

MacOS is vulnerable, too

The second type of attack that steals cookies only works (so far) when the system is unlocked, which reduces the chances of success. It also redirects traffic to a malicious page, which is easily blocked by a security solution. And, of course, stolen cookies are only useful on those websites that don’t employ a strict HTTP transport policy.

Recommendations

However, there are a number of recommendations we’d like to give you to avoid becoming easy prey for attackers.

Users

1. Never leave your system unlocked, especially when you need to leave your computer for a moment and you are in a public place.

2. On returning to your computer, check to see if there are any extra USB devices sticking out of your ports. See a flash drive, or something that looks like a flash drive? If you didn’t stick it in, we suggest you remove it immediately.

3. Are you being asked to share something via external flash drive? Again, it’s better to make sure that it’s actually a flash drive. Even better – send the file via cloud or email.

4. Make a habit of ending sessions on sites that require authentication. Usually, this means clicking on a “Log out” button.

5. Change passwords regularly – both on your PC and the websites you use frequently. Remember that not all of your favorite websites may use mechanisms to protect against cookie data substitution. You can use specialized password management software for easy management of strong and secure passwords, such as the free Kaspersky Password Manager.

6. Enable two-factor authentication, for example, by requesting login confirmation or with a hardware token.

7. Of course, it’s strongly recommended to install and regularly update a security solution from a proven and trusted vendor.

Administrators

1. If the network topology allows it, we suggest using solely Kerberos protocol for authenticating domain users. If, however, there is a demand for supporting legacy systems with LLNMR and NTLM authentication, we recommend breaking down the network into segments, so that even if one segment is compromised, attackers cannot access the whole network.

2. Restrict privileged domain users from logging in to the legacy systems, especially domain administrators.

3. Domain user passwords should be changed regularly. If, for whatever reason, the organization’s policy does not involve regular password changes, please change the policy. Like, yesterday.

4. All of the computers within a corporate network have to be protected with security solutions and regular updates should be ensured.

5. In order to prevent the connection of unauthorized USB devices, it can be useful to activate a Device Control feature, available in the Kaspersky Endpoint Security for Business suite.

6. If you own the web resource, we recommend activating the HSTS (HTTP strict transport security) which prevents switching from HTTPS to HTTP protocol and spoofing the credentials from a stolen cookie.

7. If possible, disable the listening mode and activate the Client (AP) isolation setting in Wi-Fi routers and switches, disabling them from listening to other workstations’ traffic.

8. Activate the DHCP Snooping setting to protect corporate network users from capturing their DHCP requests by fake DHCP servers.

Last, but not least, you never know if your credentials have been leaked from a site you’ve been to before – online or physical. Thus, we strongly recommend that you check your credentials on the HaveIbeenPwned website to be sure.

Reposted from Securelist.

Happy New Quantum Year

Happy New Quantum Year

If you’ve been our faithful reader and your memory has not been damaged by digital amnesia, you may remember that one of the key insights from Kaspersky Security Bulletin 2015 was a forecast that cryptography as a discipline is on the verge of subdual by quantum computing as a result of progress in bringing the latter to reality. To be honest, I personally thought this forecast a bit ahead of its time, especially being in the part of our bulletin called “Predictions for 2016,” but recent headlines changed my mind.

Happy New Quantum Year

Quantum news

In the span of just a few weeks in late November and December 2016, we learned that Microsoft is hiring top-notch quantum computing scientists and Intel is hinting about its plans to transform silicon chips into quantum processors that can host millions of qubits (quantum bits — units of quantum information). Such processors can be quite useful for building, for example, an AI based on a neural network of quantum computing devices, the proof-of-concept of which has been reported by researchers from Japan’s Tohoku University. And in early January, news arrived that D-Wave, arguably the world’s best known quantum computing pioneer, is open-sourcing quantum computing software.

In other words, quantum computing is evolving faster than I expected. What does this mean for us, the average users? Does it mean, for example, that we’ll be able to go to a store and buy a “qMac” by the end of the year?

Well, not exactly. Apart from D-Wave, it’s really hard to name another university spin-off that has been able to get far on the bumpy road from laboratory to commercialization. Debates are ongoing about how “really quantum” D-Wave’s device is. I won’t go into that in detail, leaving room for you to read through my colleague’s previous post or read this amazing piece.

Apparently quantum computing is not yet a commodity — as computers became in the 1980s and 90s by the efforts of IBM, Apple, Microsoft, and many others. The complexity and price of quantum computing devices make them better analogous to mainframes, which started to emerge much earlier, in the 1950s.

In the middle of the past century, the biggest obstacle to adoption of the new technology wasn’t the hardware itself; it was the ability to take full advantage of the versatility of the new computing paradigm, which required decades of research. More than three decades of technology development were required before the industry could unveil in the late 1970s all of the building blocks necessary for the emergence of personal computers — and another three decades for PCs to become a basis of modern civilization.

Quantum revolution is nigh

History doesn’t repeat itself, but it often rhymes. Although an important step toward widening the community of quantum computing enthusiasts, D’Wave’s opening of the qbsolve to the developer community is not at all like the emergence of Intel’s x86 architecture or IBM’s PC platform. It actually could have rhymed with Alan Turing’s fundamental works of the 1930s, which laid out the basics of “machine cognition” — that is, if it hadn’t come eight months after IBM’s announcement of the IBM Quantum Experience, which, in my personal opinion, does a much better job of explaining what quantum computing is and how it can be used practically.

I must confess, I was so charmed by IBM that I am thinking of asking for trial access to their quantum processor to test if hash-breaking tasks can be performed with it quicker than with an average system’s CPU or GPU. To add more to my admiration, IBM is a company that is going to witness a second major computing paradigm shift within its lifetime. Nevertheless, given the disparity in the amount of available resources, open-sourcing the software is the right direction for D-Wave to go in the wake of intensifying competition in this market.

As we’ve seen from the headlines, Intel is not planning to miss the quantum revolution, and neither is Microsoft. Those old friends from the 1980s actually have a long history of cooperating with researchers exploring superconducting spin qubits. Few details are available about Intel’s plans, but if the company succeeds in adding the spin qubits to the existing silicon chip designs, that’s going to be a game changer in terms of qubit density.

However, it seems that Intel’s quantum chips, as well as D-Wave’s, still need cooling to the temperature of liquid helium (−452 °F and below). That means a smartphone-grade QPU would need to be housed in a mainframe-size facility. In other words, quantum computing power is not yet meant for personal use.

Quantum means “much faster”

The simplest way to explain the game change in processing power is to make an analogy with parallel computing. Qubit states are a superposition of conventional “0” and “1,” the amount of which is limited only to the resolving power of the system, so it is fair to some extent to say that information stored in qubits is processed simultaneously. Which means that a quantum processing unit will be some orders of magnitude more powerful than traditional CPU.

Well, the analogy is not perfect, given that quantum computation operations are not exactly the same as basic operations used in digital algebra, but it seems that quantum computing scientists will need some time to take full advantage of the new computing paradigm, just as it took decades with digital.

However, the main question is, what should we do with this humongous computing power? It doesn’t appear that we need all of the flops hidden in today’s gadgets to perform our most common user tasks, despite the effort developers have put into their apps to make them as multimedia as possible.

Well, think again. Have you seen a message from your favorite messaging app letting you know that it now encrypts all conversations? Or, perhaps, you’ve heard about cryptocurrencies —Bitcoin being the most known — or about blockchain technology? Yes, I am talking about cryptography and technologies that are built upon it.

With 2016 a record-high in terms of the amount of information leaks, encryption is becoming a necessity, not just in the corporate sector, where it is now enforced with even more strength, but for consumers as well. Encryption and decryption tasks consume a lot of computing power. So does the bitcoin mining process. Other implementations of blockchain technology may perform cryptography functions on specialized nodes with more computing power available to them. In fact, bitcoin mining is already nearly ineffective on casual PCs — that’s why specialized mining farms are built. But such initiatives, such as building a more secure IoT (Internet of Things) upon blockchain, lead me to the conclusion that encryption is going to be ubiquitous.

Postquantum cryptography

And guess what? Cryptography is the kind of task for which quantum computers are going to be especially good.

Quantum computing may bring either salvation or doom to this emerging new world. As we said in our Security Bulletin in 2015, cryptography the way it exists today will definitely lead to doom. The thesis that “cryptography is one of the very few fields where adversarial conflict continues to heavily favor the defender” will be strongly contested (to say the least) until effective postquantum cryptography algorithms are introduced.

Those, in turn, may require much more computing power than conventional computers are ready to yield. But, to our salvation, the miniaturization and commoditization of quantum computer devices is also imminent, which means that there will be more computing power available to defend against attackers. And the never-ending game of attackers vs. defenders will continue on a new level.

Apart from our information security discourse, we still have hope that advances in quantum computing will further boost augmented reality, virtual reality, artificial intelligence, and other resource-hungry applications.

To sum up: Quantum computers appear to be inching closer to reality. You still can’t touch one, but it’s good to see that there are computing platforms for quantum computers that you can check for yourself with IBM or D-Wave. That checking requires a certain level of geekiness, so the majority of Earth’s population still have to wait. But with more big names like Intel, IBM, Google, and Microsoft pouring money into the effort, it seems inevitable that we’ll see at least some practical outcome.

We’ve also heard rumors that Google may unveil a breakthrough before the end of 2017, so we may not have to wait for long…

Originally published at Kaspersky Lab’s Daily blog.

Вирусы: назад к истокам

Помните ли вы исходное значение слова «вирус»? Да-да, я имею в виду тот самый биологический объект, в честь которого получили свое название зловредные компьютерные программы, помещающие свой код внутрь других файлов с целью воспроизводства и распространения.

Вполне вероятно, что в обозримом будущем значение этого слова применительно к компьютерным данным получит свое оригинальное значение. Дело в том, что этим летом исследователям из Microsoft и Университета Вашингтона удалось сделать то, что не удавалось сделать до них никому, — записать 200 Мбайт данных в виде последовательности нуклеотидов, входящих в состав искусственно созданной ДНК.

dna-storage-featured

Какое отношение к этому имеют вирусы? Да самое прямое! Вирусы внедряют свой генетический код в ДНК клеток пораженных организмов, заставляя их воспроизводить себя, а не полезные для организма белки (напомню, что жизнь, как учили нас классики, — это форма существования белковых тел).

Особенно агрессивные вирусы настолько мешают нормальной работе пораженного ими организма, что в итоге приводят к его смерти. Точно так же особенно неприятный вредоносный код может привести к невозможности использовать пораженную информационную систему.

Поэтому, раз уж человечество начинает активно записывать информацию в виде ДНК, пожалуй, стоит задуматься о защите информации на «аппаратном уровне». Для начала расскажем вам, как устроено «железо», с которым нам предстоит иметь дело.

Как устроена ДНК

ДНК, или дезоксирибонуклеиновая кислота, — это носитель генетической информации и по совместительству — самая большая молекула в нашем организме. Если использовать аналогии из сферы информационных технологий, это такой загрузочный образ операционной системы. На основании ДНК синтезируются РНК — рибонуклеиновые кислоты, играющие роль программ для синтеза белков («исполняемых модулей» в компьютерных терминах), из которых и состоят все живые организмы и которые отвечают за протекание физиологических процессов на молекулярном уровне.

Все признаки организма, начиная от цвета волос и глаз и заканчивая предрасположенностью к наследственным заболеваниям, записаны в ДНК. Записаны они в виде последовательности нуклеотидов — молекулярных блоков, содержащих в себе всего лишь четыре разновидности азотистых оснований: аденин, гуанин, тимин, цитозин. Это такие биологические биты.

Как видите, в отличие от человека, матушка-природа использовала не двоичную систему счисления, а четверичную. Кстати, природа хорошо позаботилась о защите от сбоев — у большинства живых существ ДНК представляет собой не одну, а две цепочки нуклеотидов, закрученные друг вокруг друга как витая пара в двойную спираль.

Держатся эти две цепочки друг за друга водородными связями, которые образуются только в том случае, если с каждой из сторон расположен строго определенный нуклеотид, — таким образом автоматически гарантируется взаимное соответствие информации в каждой из двух спиралей. На этом и основан первый механизм защиты от сбоев: при расшифровке или репликации ДНК используется одна из двух спиралей, а вторая играет роль контрольной — на тот случай, если вдруг какая-то последовательность нуклеотидов, кодирующих тот или иной генетический признак, оказалась в одной из спиралей повреждена.

Кроме взаимного соответствия двух цепочек нуклеотидов кодирование наследственных признаков дополнительно производится с применением избыточного алгоритма — можно сказать, что каждый наследственный признак, записанный в виде последовательности биологических битов — оснований, дополнительно снабжен контрольной суммой.

За те полвека, что прошли с момента открытия ДНК, эти последовательности довольно неплохо изучены, что позволяет любому желающему заказать расшифровку основных генетических признаков собственной ДНК онлайн, причем не только в ближайшей лаборатории, но и в Интернете — с помощью сервиса 23andme и аналогичных ему.

Как считывают ДНК

Теперь о том, как информацию ДНК считывают. Изначально в распоряжении ученых были такие методы, как рентгеновский структурный анализ, семейство спектроскопических методов и масс-спектрометрия. Все эти методы неплохо работают для небольших молекул, состоящих из двух, трех, четырех атомов, но все становится сильно сложнее, когда количество атомов действительно велико.

Однако ДНК не зря считают самой большой молекулой в нашем организме — в человеческой ДНК из гаплоидной клетки содержится порядка 3 млрд пар оснований. Ее молекулярная масса на несколько порядков больше молекулярной массы самого крупного из известных науке белков.

В общем, это неимоверно огромная куча атомов, поэтому на расшифровку данных при использовании классических методов считывания даже сегодня, с применением суперкомпьютеров, легко уходят месяцы, а то и годы.

Но ученым удалось придумать метод секвенирования, который сильно ускоряет процедуру. Основная его идея — разбиение одной длинной последовательности атомов на много коротких фрагментов, которые можно анализировать параллельно, тем самым кратно увеличивая скорость расшифровки.

Для секвенирования биологи используют «молекулярные машины» — специальные белки (энзимы) полимеразы. Основная функция этих белков — копирование ДНК. Делают они это, последовательно проходя вдоль спирали и собирая из нуклеотидов идентичную молекулу.

Но поскольку нам нужна не просто полная копия ДНК, а нарезка на короткие фрагменты, то дополнительно используют так называемые праймеры и маркеры — соединения, сообщающие полимеразе, где начать клонировать, а где закончить.

Праймеры представляют собой четко определенную последовательность нуклеотидов, которая присоединяется к цепочке лишь там, где встречает «ответную» комбинацию. Полимераза находит праймер, «садится» на цепочку нуклеотидов и начинает достраивать ее из компонент, которые помещены в раствор. И делает это до тех пор, пока не встретит маркер — модифицированный нуклеотид, на котором дальнейшая «достройка» цепочки обрывается.

Определенную проблему представляет тот факт, что в рамках этого метода невозможно указать точные «адреса» начала и конца клонирования, а указать можно лишь те последовательности «битов», с которых начинается и которыми заканчивается выделение фрагмента.

Если говорить в компьютерных терминах, то происходит это следующим образом. Допустим, у нас есть комбинация бит 1101100001010111010010111. Предположим, что нашим праймером является комбинация 0000, а маркером — комбинация 11. В результате секвенирования мы получим следующий набор фрагментов, в порядке убывания их вероятности:
 0000101011, 
00001010111,
 0000101011101001011, 
00001010111010010111.

Варьируя праймер и маркер, мы в конечном итоге переберем все возможные комбинации бит, считаем их, а после считывания восстановим из отдельных фрагментов всю последовательность.

Выглядит немного сложно и неочевидно, но это действительно работает и обеспечивает неплохую скорость, поскольку в итоге все необходимые действия можно делать параллельно. Неплохая скорость по меркам биологов — это несколько часов. Существенно лучше вышеупомянутых месяцев или даже лет, но по меркам ИТ, скажем так, многовато.

ДНК и хранение произвольной информации

Научившись за полвека неплохо считывать информацию из ДНК, оставалось научиться синтезировать цепочки нуклеотидов. Тут надо уточнить, что исследователи Microsoft были не первыми, кто записал информацию в виде двойной спирали ДНК. Первыми были ученые из европейского института биоинформатики (EMBL-EBI), несколько лет назад записавшие 739 Кбайт.

В чем же новизна достижений Microsoft? Во-первых, в существенном увеличении объема записи — до 200 Мбайт. Уже довольно близко к тем 750 Мбайт, которые содержатся в ДНК человека. Впрочем, главная инновация состоит в том, что исследователи предложили способ, позволяющий считывать не всю ДНК целиком, а ее отдельный участок — порядка 100 битов-оснований за одну операцию.

А добились они этого путем использования таких пар праймеров и маркеров, которые обеспечивают копирование полимеразой — и последующее считывание — блока данных строго определенного размера, расположенного по определенному адресу относительно начала «файла» — цепочки нуклеотидов. Это все еще не совсем полный аналог произвольного доступа к памяти, но довольно близкое к нему поблочное чтение.

Пока ученые считают, что основной нишей подобного использования ДНК могут стать модули памяти высокой плотности, предназначенные для длительного хранения информации. В этом есть смысл — плотность записи данных в лучших современных образцах флеш-памяти достигает десятков квадриллионов (~1016) бит на кубический сантиметр, в то время как плотность хранения данных в ДНК на три порядка выше: десятки квинтиллионов (~1019) бит на кубический сантиметр.

Дополнительное преимущество состоит в том, что молекулы ДНК достаточно стабильны и, с учетом алгоритмов коррекции ошибок, позволяют хранить информацию годами, а то и веками.

Вернемся к вирусам

Что это означает с точки зрения информационной безопасности? А означает это, что целостности записанной в таком видео информации угрожают организмы, которые специализируются на порче данных уже миллиарды лет, — вирусы.

Конечно, ожидать появления специальных генно-модифицированных вирусов, заточенных «охотиться» именно на подобные ДНК, в которые записана какая-то информация, не стоит. Просто потому, что модифицировать данные, внедряя в них вредоносный код, проще, пока эти данные представлены в чисто цифровом виде — еще до записи в ДНК.

А вот надо ли будет думать о защите от обычных вирусов, работая с таким запоминающим устройством, — вопрос открытый. Ведь если в раствор с ДНК попадет, например, вирус насморка, полимераза, скорее всего, будет реплицировать и его тоже.

Поэтому как бы не пришлось, прочитав ДНК-чип лет через десять после его записи, вспоминать, не чихала ли лаборантка во время записи важного архивного документа.

 

Перепечатка с https://blog.kaspersky.ru/dna-storage/13562/. Пожалуйста, не забудьте включить оригинальную ссылку при перепечатке.

Viruses: Back to basics

Do you remember where the term “virus” came from? Yes, I’m talking about biological viruses, after which IT security specialists named the computer programs that insert their own code into other objects to reproduce and propagate themselves.

It is very likely that soon this information technology term will regain its original meaning — researchers from Microsoft and the University of Washington have marked a new milestone in data storage by writing approximately 200MB of data in the form of a synthetic DNA.

dna-storage-featured

You may ask: What’s the connection with biological viruses? The analogy is pretty direct — viruses insert their genetic code into the DNA of infected organisms, causing the DNA to reproduce the viruses instead of synthesizing the right proteins, which are vital.

The most aggressive viruses disrupt normal physiological processes to such an extreme extent that it leads to the death of the cells and, in the end — of the whole organism. Similarly, the most aggressive malware may render the infected information system absolutely useless, or “dead.”

Therefore, now that humankind has begun writing information in the form of the DNA, it may be worth starting to worry about protecting this data at the “hardware level.” But first, let me give you an overview of how this “hardware” works.

Inside DNA

DNA, which stands for deoxyribonucleic acid, is the largest molecule in our organism, and a carrier of genetic information. The closest IT analogue is the boot image, which enables the computer to start up and load the operating system. In most cases (with some exceptions I won’t touch in this post), after the operating system has been loaded into memory, the computer launches the executable modules required to support itself and perform the work it’s programmed to do. In the same manner, living cells in most cases use DNA to produce the “executables” — RNA (ribonucleic acids) sequences, which handle protein synthesis to sustain the organism and perform its functions.

All characteristics of the organism, from eye and hair color to any hereditary disorders, are stored in the DNA. They are encoded in a sequence of nucleotides — molecular blocks containing (for most known organisms) only four varieties of nitrogenous bases: adenine, guanine, thymine, and cytosine. These can be called “biological bits.” As you can see, mother nature has used a quaternary numeral system to encode genetic information, unlike human-made computers, which use binary code.

It’s worth mentioning that DNA has a built-in code correction function — most known DNA has two strands of nucleotides, wrapped one around another like a twisted-pair wire in a double helix.

These two strands are attached one to another with hydrogen bonds that form only between strictly defined pairs of nucleotides — when they complement each other. This ensures that information encoded into a given sequence of nucleotides in one strand corresponds to a similar sequence of complementary nucleotides in the second strand. That’s how this code-correction mechanism works — when decoded or copied, the first DNA strand is used as a source of data and the second is used as a control sequence. This indicates if a sequence of nucleotides, coding some genetic characteristic, has been damaged in one of the strands.

In addition, genetic characteristics are encoded into nucleotide sequences using redundant encoding algorithms. To explain how it works in the simplest case — imagine that every hereditary characteristic, written as a sequence of nucleotides, is accompanied by a checksum.

The sequences of nucleotides coding genetic characteristics, or genes, have been studied extensively in the 50 years since the discovery of DNA. Today you can have your DNA read in many labs or even online — via 23andme or similar services.

How scientists read DNA

Through the past few centuries, scientists have developed methods to determine the structure of minuscule objects, such as X-ray structure analysis, mass spectrometry, and a family of spectroscopy methods. They work quite well for molecules comprising two, three, or four atoms, but understanding the experimental results for larger molecules is much more complicated. The more atoms in the molecule, the harder it is to understand its structure.

Keep in mind that DNA is considered the largest molecule for a good reason: DNA from a haploid human cell contains about 3 billion pairs of bases. The molecular mass of a DNA is a few orders of magnitude higher than the molecular mass of the largest known protein.

In short, it’s a huge heap of atoms, so deciphering experimental data obtained with classical methods, even with today’s supercomputers, can easily take months or even years.

But scientists have come up with a sequencing method that rapidly accelerates the process. The main idea behind it: split the long sequence of bases into many shorter fragments that can be analyzed in parallel.

To do this, biologists use molecular machines: special proteins (enzymes) called polymerases. The core function of these proteins is to copy the DNA by running along the strand and building a replica from bases.

But we don’t need a complete copy of the DNA; instead, we want to split it into fragments, and we do that by adding the so-called primers and markers — compounds that tell the polymerase where to start and where to stop the cloning process, respectively.

Primers contain a given sequence of nucleotides that can attach itself to a DNA strand at a place where it finds a corresponding sequence of complementary bases. Polymerase finds the primer and starts cloning the sequence, taking the building blocks from the solution. Like every living process, all of this happens in a liquid form. Polymerase clones the sequence until it encounters a marker: a modified nucleotide that ends the process of building the strand further.

There is a problem, however. The polymerase, DNA strand, primers, markers, and our building blocks, all are dispersed in the solution. It’s therefore impossible to define the exact location where polymerase will start. We can define only the sequences from which and to which we’re going to copy.

Continuing to the IT analogy, we can illustrate it in the following manner. Imagine that our DNA is a combination of bits: 1101100001010111010010111. If we use 0000 as a primer and 11 as a marker, we will get the following set of fragments, placed in the order of decreasing probability:
0000101011,
00001010111,
0000101011101001011,
00001010111010010111.

Using different primers and markers, we will go through all of the possible shorter sequences, and then infer the longer sequence based on the knowledge of what it is composed of.

That may sound counterintuitive and complicated, but it works. In fact, because we have multiple processes in parallel, this method reaches quite a good speed. That is, a few hours compared with months or years — not very fast from IT perspective, though.

DNA and random access

After learning how to read DNA, scientists learned how to synthesize sequences of nucleotides. The Microsoft researchers were not the first to try writing information in the form of artificial DNA. A few years ago, researchers from EMBL-EBI were able to encode 739 kilobytes.

Two things make Microsoft’s work a breakthrough. First, the researchers have greatly increased the stored data volume, to 200MB. That’s not too far from the 750MB of data that is contained in every strand of human DNA.

However, what is really new here is that they have proposed a way of reading part of the DNA, approximately 100 bases (bio-bits) long, in each sequencing operation.

The researchers were able to achieve that by using pairs of primers and markers that enable them to read a certain set of nucleotides with a defined offset from the beginning of the strand. It’s not exactly the random access to a single bit, but the technology is close — block memory access.

Researchers believe that the main niche for such DNA memory could be high-density long-term memory modules. It definitely makes sense: the best known samples of flash memory provide a density of ~1016 bits per cubic centimeter, whereas the estimated density for DNA memory is three orders of magnitude higher: ~1019 bits per cubic centimeter.

At the same time, DNA is quite a stable molecule. Coupled with built-in redundant coding and error-correction schemes, data on it would remain readable years or even centuries after it being written.

Back to viruses

But what does it all mean from an information security standpoint? It means that the integrity of information stored in such a way may be threatened by organisms that have specialized in data corruption for billions of years — viruses.

We’re unlikely to see a boom of genetically modified viruses created to hunt coded synthetic DNA. It will simply be easier — for a long time — to modify data and insert malicious code when the data is digital, before it’s written to DNA.

But it’s an open question, how to protect such data from corruption by existing viruses. Polymerase will gladly replicate any DNA in the solution: for example, the DNA of the common flu virus.

So it may be worth noting if anyone was sneezing or coughing while you were writing an important file…

 

A repost from https://blog.kaspersky.com/dna-storage/13563/. Please include the original link when sharing.

Surges in mobile energy consumption during USB charging and data exchange

Recently, our colleagues questioned the security of charging mobile devices via USB ports. They discovered that if there were a computer behind the port, there would be a data exchange, even when the mobile is blocked. We became curious – is it possible to measure the energy consumption of the “host + mobile” system during handshakes? Also, is it possible to estimate the impact on energy consumption when we separate the charging process from data exchange using the Pure.Charger device?

As it turned out, it wasn’t too hard to measure energy consumption – all it takes is a commercially available multimeter, preferably, with serial connection to a computer, which would allow you to analyze logs in a convenient manner. It was possible to provide a rough estimate of how much energy is dissipated during handshakes and to estimate to a known degree of certainty the amount of energy required to send one bit of data over the USB connection.

A little bit of theory

Dissipation of electrical energy into heat is due to two key reasons, the first being the imperfection of even the most modern computers and the second being the irreversibility of classic (non-quantum) computing.

The fundamental limit on energy consumption can be estimated using Landauer’s principle, first introduced in 1961: ∂Q = dS · T = kTln(2), which is equal to roughly 3×10-21 Joules (J) at room temperature. In reality, computation and, especially, data transfer is much more energy-hungry. We learned from a 2014 review by Coroama and Hilty, published in Environmental Impact Assessment Review, that it takes approximately 4×10-7 Joules per bit to transfer data over the Internet. That is 14 orders of magnitude above the fundamental limit.

Unfortunately, we haven’t been able to find similarly thorough and high-quality reports on energy consumption during USB data transfer. So, we decided to perform our own experiment.

Experiment

We have used various combinations of host systems and mobiles.

Notebooks Operating System
Apple MacBook Pro OS X 10.10.5
Dell Latitude E6320 Windows 7 64-bit Enterprise Edition

To which we’ve been connecting these mobile phones:

Mobile device Platform
Samsung GT-i9300 (Galaxy S3) Android 4.4
LG Nexus 6X Android 6.0.1
Apple iPhone 4s iOS 9.2.1

The choice of mobiles was dictated by the fact that Android 6 mobiles behave themselves differently than smartphones on earlier versions of Android. They have a built-in protection from USB data transfer, enabling “charge-only” mode by default upon connection to a USB port. However, since we already knew from the previous research that a handshake, nonetheless, occurs in this setting, too, we wanted to check the energy consumption of phones during handshakes. We also wanted to discover the difference in behavior of mobiles based on different versions of Android and iOS.

electro_lurye_pic01

Diagram of the experiment set-up in the MacBook Pro experiment

electro_lurye_pic02

Experimental set-up in the Dell Latitude E6320 experiment

Our simple experiment, in essence, was to measure the current flowing through the wire that connects the system, which comprises a host, a connected mobile, and a power outlet. We designed this experiment in such a way, on one hand, to ensure the reproducibility of its results and, on the other hand, to avoid damaging the computer’s power adapter. Thus, we also tested the stability of the frequency and voltage of the alternating current and saw no dependence of these two parameters from the data exchange.

Since the multimeter provided us with RMS (root mean square) values of the alternating current within finite time intervals, the amount of consumed energy can be approximated by a sum of products of current IRMS average value of voltage URMS and time interval duration δt. We have used the RMS values of current in all our calculations instead of amplitude (I0 = IRMS *√2), because, by definition, the RMS value is equivalent to a value of DC current that dissipates the same amount of heat on the same resistive load.

Results

Handshakes

In order to exclude the charging current’s influence on multimeter readings, the mobiles and laptops which we used as host computers, were fully charged. Furthermore, we used a Pure.Charger device, which allows us to turn the USB data lines on and off as desired. The sequence was the following: first we connected the Pure.Charger to the host computer’s USB port and then we introduced the mobile device to Pure.Charger’s output USB port. By doing so, we effectively separated the moment of connection to the USB port and the moment when data lines were enabled.

In the graph below you can see the consumption current dynamics (in mA) when a Nexus 5X was connected to a MacBook Pro host:

electro_lurye_pic03

Here we see two distinct peaks of current, first when the phone is connected to a data line in “charge-only” mode, and second – when the MTP mode is enabled.

Current consumption dynamics for the connection of an unblocked Samsung S3 looks like this:

electro_lurye_pic04

Here we see a single large consumption peak – because the phone is not blocked, it starts an MTP session right after it’s connected to the port.

The graph below we obtained with an iPhone 4S and a Latitude E6320 with the same settings:

electro_lurye_pic05

The main consumption peak, due to the handshake between the Latitude E6320 and iPhone 4S, is preceded by a smaller spike, which corresponds to a handshake between the Latitude E6320 and Pure.Charger. As the amount of energy consumed during the handshake is proportional to the area below the curve, it can be seen that the amount of energy consumed due to the handshake of the host with Pure.Charger is significantly lower that the amount consumed due to the handshake with the iPhone 4S.

The experiment with the Latitude E6320 and iPhone 4S is the only one where Pure.Charger’s handshake is clearly seen – it is not distinctly observed in other experiments. The Pure.Charger’s consumption current, as obtained in the series of the experiments, does not exceed the idle current standard deviation for both the MacBook and the Latitude E6320.

The value of current fluctuations in the Latitude E6320 experiment (standard deviation was equal to 7-8 mA) was greater than current fluctuations in the MacBook experiment (standard deviation was equal to 4 mA). There are two reasons for this. Firstly, the Latitude E6320 was built using HDD and the MacBook Pro that we used was built using SSD. Secondly, in the corresponding experiment the Latitude E6320 was used both as a host and as a logging system.

Data transfer

In order to learn more about how much energy is required to send a unit of data over a USB connection, we had the hosts and the mobiles transfer files of a specified size to one another.

Fixed amount of data

The dynamics of the consumption current, in mA, for the Nexus 5X that was tasked with transferring 391 MB of data to the MacBook host, looked like this:

electro_lurye_pic06

Here we observe the same two consumption peaks specific to an Android 6-based device, and an increase in the average consumption current during data transfer.

This is how the consumption current depends on time in an experiment where the MacBook Pro was reading 188 MB of data from Samsung S3:

electro_lurye_pic07

Here we see a sharp single peak corresponding to a handshake with Samsung S3, a distinct start and finish of file transfer with increased consumption current, and a small spike in the current when the phone is disconnected, which is due to the system closing processes and windows which were active when the phone was connected.

We have carried out multiple similar experiments. As expected, the time interval elapsed for file transfer, was dependant on the file size – the larger the file, the longer it takes to send it through the USB channel.

Energy consumption dependence on the direction of data transfer

Does energy consumption depend on the direction of data transfer? We set up an experiment during which a group of files of the same size was sent to the host from the mobile, and vice versa, and measured the system’s consumption current. Because it’s impossible to send the files directly to an iOS-based mobile, this experiment was performed only with Android-based systems.

electro_lurye_pic08 electro_lurye_pic09

The left-hand graph shows the consumption current dynamics (in mA) when the Latitude E6320 is connected to the Samsung S3 and reads 808 MB of data. The graph on the right shows the current consumption when the Latitude E6320 sends the same amount of information to the Samsung S3. Despite the noise specific to the Latitude E6320 series of experiments, the moments of file transfer start and finish are seen clearly.
We carried out six similar experiments and came to the following conclusions:

  1. The average value of consumption current while sending data from the host to the mobile is lower, and this decrease is greater than the standard error.
  2. Meanwhile, the time elapsed for sending the file from a host to a mobile is longer than the time elapsed for receiving the same-sized file by a host from a mobile. This time interval increase is roughly the same as the decrease in average consumption current.

Taking into account that the voltage was the same, the energy consumption can be estimated as a product of voltage times average current and times the length of the time interval. The estimated values of energy consumption for data transfer from mobile to host and from host to mobile were effectively in the same confidence interval.

Energy consumption per unit of information

In order to approximate the dependence of consumed energy on the size of data we made two assumptions:

  1. The amount of energy required to transfer a unit of data depends only on the type of host and mobile.
  2. The amount of energy required to transfer a known amount of data is directly proportional to the size of data sent. This assumptions is probably not correct, because communication systems, and USB in particular, are optimized for sending data in bulk, thus the smaller the amount, the less energy is required to transfer it. However, there are accompanying computational processes that don’t go away. Therefore, it would be more accurate to approximate this dependence with a power function with fractional index. But the difference between linear approximation and such a power function would be significant for smaller amounts of data.

Under these assumptions, we have estimated that the most energy-efficient pair is the MacBook Pro connected with the Samsung S3 – they dissipate only (3.3±0.2)x10-8 Joules per bit, and the most power-hungry combination was the Latitude E6320 with the iPhone 4S, which dissipated (9.8±0.6)x10-8 Joules per bit.

electro_lurye_pic10

Conclusions

The amount of energy required to transfer a unit of information through the USB channel is within the range of 3.1×10-8 to 1.4×10-7 Joules per bit. Remember the article we cited in the beginning? Their assessment (for transfer of Internet data) was 4×10-7 Joules per bit, which means that our assessment for USB connections is within the same order of magnitude.

Still, there are two more things to consider for further research. First, data transfer during handshakes is different from file transfer as it involves more computational processes and thus leads to greater consumption of system energy. Second, the dependence of energy consumption on the size of transferred data is presumably not quite linear, and for better accuracy should be approximated with a convex function. A better approximation requires more data points and more pairs of hosts and mobiles to be investigated.

Economy of scale

To sum it all up, I’d like to estimate the ratio of energy consumption caused by handshakes to the energy that is consumed while charging a mobile device. A typical charge on a 2 A current would last 20 to 40 minutes, which means that a mobile receives anywhere from 12 to 24 kJ of energy when charging. Therefore, blocking the handshakes that waste a few to dozens of Joules, allows for saving tenths to hundredths of a percent of this energy. A single user would not even notice this effect, but if all the folks living in New York used a Pure.Charger, they would save a whopping 33 Kilowatt-hours of electricity every day! To give you an idea of how much this is – Tesla electric cars can drive over 100 miles on this charge. This may not look like a big deal for a mega polis, but it’s a noticeable effect, isn’t it?

We will continue to research the physical characteristics of mobile devices during data exchange, both from a security perspective and in search of more data points. We welcome readers to reproduce this experiment themselves and report their findings!

This material uses experimental results submitted for publication in IEEE Transactions on Mobile Computing. The preprint is available here.

Reprinted from SecureList.com

Всплески энергопотребления при заряде мобильного и обмене данными по USB

Не так давно коллеги уже поднимали вопрос безопасности зарядки мобильного телефона от USB порта и выяснили, что если «на том конце» порта есть компьютер, то обмен данными происходит всегда – даже в случае, если телефон заблокирован. Мне стало интересно – а можно ли измерить величину энергопотребления системы «компьютер + мобильный» в момент обмена данными? И насколько значим будет эффект с точки зрения энергопотребления, если устранить обмен данными при «рукопожатии» с помощью Pure.Charger?

В целом, обнаружить скачки энергопотребления оказалось несложно – для этого сгодится самый обычный мультиметр, но, желательно, с подключением к компьютеру, чтобы было проще анализировать логи. Более того, можно даже примерно оценить величину энергии, которая рассеивается при «рукопожатии» (handshaking), и чуть более точно – оценить величину энергии, которая тратится на передачу одного бита данных по USB-соединению.

Немного теории

Диссипация, или преобразование электрической энергии в тепловую, происходит по двум причинам: во-первых, в связи с несовершенством даже самых современных вычислительных систем, а, во-вторых, в связи с необратимостью классических (не квантовых) вычислений.

Фундаментальный предел энергопотребления, обусловленный необратимостью вычислений, можно оценить по принципу Ландауэра, предложенному в 1961 году: ∂Q = dS · T = kTln(2), что равно примерно 3×10-21 Джоуля на бит при комнатной температуре. На практике же на обработку, а тем более на передачу данных тратится значительно больше электроэнергии. Так, по данным обзорного исследования Короама и Хилти, опубликованного в 2014 году в журнале Environmental Impact Assessment Review, на отправку одного бита данных по сети Интернет тратится примерно 4×10-7 Джоулей – на 14 порядков больше фундаментального предела.

К сожалению, нам не удалось обнаружить столь же подробных и качественных исследований энергопотребления при обмене данными по USB. Поэтому мы решили провести эксперимент самостоятельно.

Эксперимент

Мы использовали различные комбинации хостов и мобильных устройств. В качестве хостов мы задействовали:

Ноутбуки ОС
Apple MacBook Pro OS X 10.10.5
Dell Latitude E6320 Windows 7 64-bit Enterprise Edition

К ним мы подключали мобильные телефоны:

Мобильные устройства ОС
Samsung GT-i9300 (Galaxy S3) Android 4.4
LG Nexus 6X Android 6.0.1
Apple iPhone 4s iOS 9.2.1

Выбор мобильных устройств был обусловлен тем, что в Android 6 есть встроенная защита соединения по USB, проявляющаяся в том, что телефон подключается к порту в режиме «только заряд». Поскольку из предыдущего исследования наших коллег мы уже знали, что «рукопожатие» все равно происходит, было интересно выяснить, каковы затраты энергии в этот момент, и можно ли зафиксировать отличия в поведениях телефонов на базе разных версий Android и iOS.

electro_lurye_pic01

Схема экспериментального стенда в эксперименте с MacBook Pro

electro_lurye_pic02

Схема экспериментального стенда в эксперименте с Dell Latitude E6320

Наш несложный эксперимент свелся, по сути, к измерению тока, протекающего по линии питания системы «компьютер + мобильное устройство». Чтобы, с одной стороны, сделать эксперимент универсальным и легко воспроизводимым, а с другой стороны – не портить дорогостоящее оборудование, мультиметр был подключен в разрыв линии переменного тока 220 В, а не в разрыв линии постоянного тока на выходе блока питания. Заодно мы проверили стабильность напряжения и частоты переменного тока и выяснили, что на величины напряжения и частоты обмен данными не влияет, а проявляет себя исключительно в скачках силы потребляемого тока.

Поскольку мультиметр при измерении силы и напряжения переменного тока выдает значения среднеквадратичных величин или RMS (Root Mean Square) в определенные интервалы времени, то интересующая нас величина энергопотребления с хорошей степенью точности равна сумме произведений величин силы тока IRMS на среднее значение URMS и на длительность интервалов времени dt. Стоит подчеркнуть, что везде в расчетах энергопотребления мы использовали среднеквадратичные значения, а не амплитуды (I0=IRMS *√2), поскольку, по определению, среднеквадратичная величина тока эквивалентна значению постоянного тока, рассеивающего столько же тепла на такой же резистивной нагрузке.

Результаты

«Рукопожатие»

Чтобы исключить влияние тока зарядки на показания мультиметра, мобильное устройство и ноутбук были полностью заряжены перед каждым экспериментом. Дополнительно, мы отделили момент подключения мобильного устройства к линии питания и линии данных USB, использовав Pure.Charger. Последовательность действий в этом эксперименте была следующей: сначала подключался Pure.Charger, а к его выходному порту – мобильное устройство. Так мы отделили момент подключения мобильного устройства к проводникам питания и к линиям данных.

На графике ниже представлена динамика потребления тока (в мА) при подключении Nexus 5X к MacBook Pro:

electro_lurye_pic03

На графике видно два всплеска: первый – в момент включения линии данных и подключения телефона в режиме «только заряд», второй – в момент разрешения пользователем обмена данными с телефоном.

Динамика потребления тока при подключении разблокированного Samsung S3 к MacBook Pro несколько иная:

electro_lurye_pic04

Здесь мы видим только один пик, поскольку телефон уже разблокирован, и сразу после «рукопожатия» он отдает системе информацию о своих файлах и папках.

Ниже – график, который мы получили при соединении iPhone 4S и Dell Latitude E6320:

electro_lurye_pic05

Основному всплеску энергопотребления, соответствующему «рукопожатию» iPhone 4S и Latitude E6320, предшествует небольшой пик, лишь немногим превышающий среднеквадратичное отклонение. Это Pure.Charger, будучи подключенным к USB, «представляется» системе.

В эксперименте с Latitude E6320 и iPhone 4S «рукопожатие» Pure.Charger наиболее заметно, однако, поскольку величина энергопотребления пропорциональная площади под кривой зависимости тока от времени, видно, что на это «рукопожатие» уходит намного меньше энергии, чем на обмен данными между мобильным телефоном и хостом. В целом, по результатам нашего эксперимента энергопотребление, привносимое Pure.Charger в систему, не превышает среднеквадратичной ошибки измерения тока покоя как для Dell Latitude E6320, так и для MacBook.

На графиках видно, что флуктуации потребляемого тока у Latitude E6320 (среднеквадратичное отклонение достигало 8 мА) существенно выше, чем у MacBook Pro (среднеквадратичное отклонение — 4 мА). Это объясняется, во-первых, применением в Latitude E6320 накопителя на жестком диске (HDD), в отличие от твердотельного накопителя в MacBook (SSD), а, во-вторых, использованием Latitude E6320 как для записи данных, поступающих с мультиметра через последовательный порт, так и в качестве хоста, что вносило дополнительную лепту в искажение общей картины потребления.

Передача данных

Чтобы точнее узнать, сколько энергии тратится на передачу единицы информации по USB, мы заставили компьютер и мобильное устройство передавать друг другу заданное нами количество данных (если быть точным – файлы определенного размера).

Фиксированный объем данных

Картина измерений, например, для Nexus 5X, который после подключения мы попросили передать 391 Мбайт на MacBook Pro, выглядела так:

electro_lurye_pic06

На рисунке мы наблюдаем все те же два характерных для Android 6 всплеска потребления тока, а спустя некоторое время – работу системы в режиме повышенного энергопотребления.

Вот так выглядит график потребления тока MacBook Pro при получении 188 Мбайт с Samsung S3.

electro_lurye_pic07

Здесь мы видим один узкий всплеск энергопотребления при «рукопожатии» Samsung S3 (телефон разблокирован), отчетливое начало и конец отправки файлов, а в конце – узкий всплеск энергопотребления в момент отключения телефона, когда система закрывает окна и процессы, которые были активны.
Мы провели несколько аналогичных экспериментов. Как и следовало ожидать, длительность промежутка времени, в течение которого система потребляет больше тока, напрямую зависит от объема передаваемых данных – чем больше размер файла, тем он дольше.

Зависимость энергопотребления от направления передачи данных

Зависит ли энергопотребление от направления передачи данных – от мобильного к хосту и наоборот? Задавшись этим вопросом, мы попробовали изучить динамику потребления тока и в том, и в другом случаях. Для этого мы измеряли ток потребления системы «хост + мобильный» в режиме передачи файлов одного и того же размера, но в разном направлении. В силу невозможности прямой отправки файла по USB-соединению на устройство под управлением iOS, в этом эксперименте мы задействовали только аппараты под управлением Android.

electro_lurye_pic08 electro_lurye_pic09

На графике слева – динамика потребления тока при подключении Samsung S3 к Latitude E6320 в режиме чтения 808 Мбайт данных со смартфона, а на графике справа – в режиме отправки на смартфон такого же объема данных. Несмотря на зашумленность графика, типичного для эксперимента с Latitude E6320, моменты подключения телефона, а также начала и конца отправки файлов видны отчетливо.

Мы провели шесть аналогичных экспериментов и получили следующие результаты:

  1. Среднее значение потребляемого тока во время отправки данных от хоста к мобильному устройству меньше, чем среднее значение в режиме получения данных хостом от мобильного устройства, и эта разница больше среднеквадратичной ошибки.
  2. При этом время, затрачиваемое на передачу файлов от хоста на мобильное устройство, больше времени, уходящего на получение хостом файлов от мобильного – примерно настолько же, насколько меньше ток.

С учетом того, что величина напряжения в обоих экспериментах была одинаковой, значение потребленной энергии можно оценить как произведение напряжения на среднюю величину тока и на длительность промежутка времени. Полученные величины энергопотребления в этих двух режимах находятся в рамках одного и того же доверительного интервала, то есть энергопотребление не зависит от направления передачи данных.

Затраты энергии на передачу единицы информации

Для аппроксимации зависимости затраченной энергии от объема данных мы сделали два допущения:

  1. Затрачиваемое количество электроэнергии зависит только от типа хоста и мобильного устройства.
  2. Количество электроэнергии, затрачиваемое на отправку определенного объема данных, прямо пропорционально количеству данных.
    К сожалению, это допущение, скорее всего, неверно, поскольку обычно информационные системы оптимизированы на отправку данных в потоке. Следовательно, чем меньше объем данных, тем меньше нужно потратить энергии собственно на их отправку, но при этом есть затраты на сопутствующие вычислительные процессы. Поэтому, скорее всего, данная зависимость носит характер степенной функции с дробным показателем, но актуально это, прежде всего, для небольших объемов данных.

С учетом этих допущений наиболее экономичной комбинацией оказался MacBook Pro с подключенным к нему Samsung S3 – эта пара тратит всего (3,3±0,2)x10-8 Джоуля на бит, а самой прожорливой – Apple iPhone 4S в паре с Dell Latitude E6320, потребляющая (9,8±0,6)x10-8 Джоуль на отправку или прием одного бита.

electro_lurye_pic10

Выводы

Диапазон значений величины энергии, необходимой на отправку одного бита информации по USB, составляет от 3,1×10-8 до 1,4×10-7 Джоуля. Если вспомнить, что по данным Короама и Хилти величина энергопотерь при отправке одного бита по интернету была равна 4×10-7 Джоуля, выйдет, что полученная нами оценка скорее всего является корректной с точки зрения порядка величины.

Однако есть два существенных момента, требующих дальнейшего изучения. Во-первых, передача данных в момент установления соединения («рукопожатия») и передача фиксированного объема информации (в нашем случае, больших файлов) – это разные вычислительные процессы, по-разному влияющие на общую нагрузку системы. Во-вторых, зависимость потребленной энергии от объема переданных данных, скорее всего, не является линейной, поэтому корректнее было бы аппроксимировать её выпуклой функцией. Однако для более точной аппроксимации необходимо накопить большее количество экспериментальных данных (в особенности – для отправки небольших объемов данных), в том числе для разных комбинаций хостов и мобильных устройств.

Экономия в масштабе

В заключение хотелось бы оценить возможную величину энергопотерь, вызванных «рукопожатиями», на фоне энергии, которая уходит на заряд телефона. При напряжении 5В и токе 2А зарядка длится порядка 20-40 минут, следовательно, мобильное устройство «скушает» за типичный сеанс заряда от 12 до 24 кДж. За «рукопожатие» теряется приблизительно от единиц до десятков джоулей, т.е. на фоне аппетитов самого телефона эти потери составляют десятые – сотые доли процента. Отдельному пользователю это практически не заметно, но вот если бы все жители, например, Москвы, заблокировали «рукопожатия» в течение всего лишь одного дня, сэкономленной электроэнергии (порядка 50 киловатт-часов) хватило бы среднестатистическому жителю столицы на целый месяц обычной жизни – а это уже пусть и не так много на фоне многомиллионного города, но все же заметно.

Со своей стороны, мы будем продолжать исследование физических параметров мобильных устройств – как с точки зрения безопасности, так и с точки зрения оценки затрат энергии на передачу единицы информации, – и приглашаем наших читателей принять в этом участие.

Пишите!

В статье использованы материалы исследования, отправленного на публикацию в журнал IEEE Transactions on Mobile Computing. Препринт статьи доступен по ссылке.

Перепечатка с сайта Securelist.ru.

Поймай волну! Ученые наконец-то зафиксировали гравитационные волны

…Давным-давно, в одной далекой-далекой галактике…

Две черные дыры решили поддаться действию сил тяготения и стать единым целым. В момент своего слияния они издали пронзительный вопль, который, будучи записан в виде ряби на поверхности пространства-времени, дошел до планеты Земля в Солнечной системе, был обнаружен и расшифрован 14 сентября 2015 года.

SL1

Примерно так началась 11 февраля официальная пресс-конференция в Университете Глазго, посвященная обнаружению гравитационных волн международными коллаборациями LIGO и VIRGO.

Важность этого открытия трудно переоценить. Очень многие титаны научной мысли ставят открытие гравитационных волн в один ряд с такими событиями научного мира как открытие бозона Хиггса. И вот почему. Существование гравитационных волн предсказывалось практически с самого момента публикации Эйнштейном основных постулатов теории относительности. Астрофизики, анализируя излучение энергии в таких процессах, как взрывы сверхновых, образование нейтронных звезд и коллапс (превращение массивных звезд в черные дыры), много раз приходили к выводу, что значительная часть излучаемой энергии должна приходиться на гравитационные волны. Многие научные коллективы начиная со второй половины прошлого века посвятили себя решению задачи экспериментального обнаружения гравитационных волн. Периодически появлялись сообщения о том, что тому или иному коллективу удалось обнаружить сигнал, превышающий шум в несколько раз, но ни воспроизвести результаты, ни согласовать их с данными расчетов относительно источника не удавалось. Например, когда в 1987 году на Земле зарегистрировали вспышку сверхновой в Большом Магеллановом облаке, один коллектив поспешил заявить о регистрации гравитационно-волнового сигнала, однако их данные не согласовывались с данными астрономов, и в итоге авторы были вынуждены признать, что их экспериментальная методика была ошибочной.

Все дело в том, что гравитационное взаимодействие – самое слабое из известных науке. Для обнаружения гравитационных волн нужен либо очень чувствительный детектор относительных смещений так называемых пробных масс, либо нужно дожидаться экстремальных астрономических событий, не слишком удаленных от нашей планеты. Поэтому в 1992 году была начата работа по созданию LIGO (Laser Interferometer Gravitational Observatory), в научную коллаборацию вошел коллектив научной группы прецизионных и квантовых измерений физфака МГУ, возглавляемый Владимиром Борисовичем Брагинским. В рамках проекта LIGO было создано сразу две обсерватории, одна – в штате Луизиана, и еще одна – в штате Вашингтон. Одним из авторов концепции LIGO стал Кип Торн, сегодня известный всему миру как продюсер фильма Interstellar. Чуть позже в Италии, рядом с городом Пиза, началось сооружение еще одной обсерватории, VIRGO – чтобы гарантировать отсутствие ложных срабатываний, а также иметь возможность триангулировать пришедший сигнал и определить его источник. Позднее все коллективы объединись в LSC (LIGO Scientific Collaboration), чтобы вместе создать весьма сложные научно-инженерные конструкции, над созданием которых трудились тысячи людей по всему миру, а в ходе работ были защищены сотни кандидатских диссертаций, включая вашего покорного слуги. Сложность задачи иллюстрирует тот факт, что на этих объектах умеют определять относительные смещения пробных масс, разнесенных на четыре километра, с точностью до 10-19 метров – это на четыре порядка меньше диаметра ядер большинства атомов!

SL2

И вот, 14 сентября 2015 года ученым LIGO удалось обнаружить сигнал, который был заметно выше уровня шума, и вместе с теоретиками расшифровать от какого именно источника он пришел. На расшифровку сигнала и проверку ушло несколько месяцев, и в январе 2016 года коллектив авторов подал манускрипт научной статьи в Physical Review Letters, которая была опубликована 11 февраля 2016 года. В числе соавторов публикации указаны научные сотрудники 133 научно-исследовательских организаций, в том числе физического факультета Московского государственного университета имени М.В.Ломоносова. Поздравляю всех причастных с этим важным для науки открытием! P.S. Многих интересует практическая польза гравитационных волн. Пока это сложный вопрос, особенно с учетом того, какие технически сложные приспособления нужны для их обнаружения и какие вычислительные усилия были затрачены для их расшифровки. Однако, в позапрошлом веке, когда человечество открывало для себя радиоволны, их практическая польза тоже была понятна не сразу. Открытие гравитационных волн ставит точку в длящемся десятилетиями споре о природе гравитации, дает надежду на то, что единая теория поля будет наконец-то создана, а теоретики наконец-то сойдутся на приемлемом варианте квантовой теории гравитации. А там, глядишь, и практическое применение найдется – например, если удастся научиться генерировать гравитационные волны, то это даст возможность создавать новые принципы движения в космическом пространстве.

Читать больше: https://nplus1.ru/news/2016/02/11/atlast.

Catch the Wave! Scientists have finally detected gravitational waves

 

“…A long time ago, in a galaxy far, far away…

Two black holes subdued to the gravitational pull and coalesced into a single entity. While coalescing, they violently rippled the space-time surface and on 14th September, 2015, these ripples reached planet Earth and were successfully recorded and deciphered.”

SL1

This is how the official press conference on the detection of gravitational waves by LIGO and VIRGO international scientific collaborations began in the University of Glasgow yesterday. The importance of this discovery cannot be overestimated. Many titans of modern science fit the discovery of gravitational waves into the same level of importance as observation of Higgs boson. There is a strong reason for that. The existence of gravitational waves was predicted right after the key postulates of the General Relativity Theory were published by Einstein. While studying the energy radiation processes during supernovae, neutron stars formation and collapses (stars turning into black holes), astrophysicists concluded many times that a significant portion of energy was radiated in a form of gravitational waves. So a lot of scientific effort was put into experimentally detecting gravitational waves in many countries all over the globe. There were claims of signal coming above the noise from time time, but all failed to either reproduce the results or correlate them with astrophysical calculations and other astronomical data. For example, when Earth saw the supernova in the Large Magellanic Cloud in 1987, a group from Rome claimed that they had registered the gravitational signal, but the claimed signal shape was a total mismatch with the data from astronomy, and as a result, they had to admit that their experiment’s methodology was flawed.

This is due to the fact that gravity is the weakest interaction known to science today. To discover the gravitational wave either a very sensitive detector is required, or an extreme astronomy event has to happen – and, preferably, not too far from Earth.

That’s why in 1992 the work was started on LIGO (Laser Interferometer Gravitational Observatory), the concept of which had been proposed by Kip Thorn, now known to the world as the producer of the “Interstellar” movie. The corresponding international collaboration involved scientists from all over the world, including Russia. Initially, the LIGO project included two detectors, one in Louisiana and another – in Washington. Another observatory, named VIRGO, was later constructed in Italy, near Pisa – so that scientists could not just confirm the detection, but also triangulate the signal and detect the source. In a short while, all scientists joined their effort in LSC (LIGO Scientific Collaboration), crafting extremely sophisticated scientific and engineering complexes. Thousands of people were committed to making this happen and hundreds of PhDs were defended, including mine. To illustrate the complexity – these facilities are able to record the relative movement of the so called probe masses with precision of meters 10-19 – four orders of magnitude lower than the size of most elements’ nuclei.

And finally, on 14th September 2015, LIGO scientists were able to detect the signal, distinctly above the noise level. A few months were required to decipher and check the findings together with theorists, and in January the scientists filed a paper to Physical Review Letters, published on 11th February 2016. There are hundreds of co-authors of this paper from 133 international research institutions, including Moscow State University. So I am proud to congratulate all the people who have taken part in this decades-long endeavor!

SL2

P.S. Many people ask about the practical use of gravitational waves. At the moment, it’s a hard question, especially in light of the complexity of facilities and monstrosity of computational effort required to decipher them. But let’s remember how humanity had encountered radio waves a century ago – their practical use wasn’t clear from the beginning either. The discovery of gravitational waves puts an end to the decades-long argument about the nature of gravity (which started as soon as the General Relativity Theory was formulated) and provides hope that the united field theory will finally see the light. That might include the agreement between theorists on the version of the quantum field gravity theory. But, anyway, there is hope that one day humans will learn how to generate gravitational waves – and become able to propel themselves in space in a better way.

Prisoner’s dilemma for information security industry

My friends know that my curiosity leads me to various places of the human knowledge oicumena. This time I was walking across the game theory where I’ve stumbled upon a “Prisoner’s dilemma”. I was struck to see how this dilemma is similar to the situation we have with threat announcements in particular – and with information security industry in general.

But let me explain what a “prisoner’s dilemma” is (for those of you who are not yet familiar with this concept for any reason). Imagine a situation that there are two suspects in custody. One of them (let’s name her Alice) is approached by investigators and asked to testify against the other (let’s name him Bob). In exchange, the officers incentivize her that her sentence will be lowered to one year, while her testimony will make sure that Bob spends three years in prison. Of course, the same offer goes to Bob. But if they both testify, one against the other, they provide so much evidence so both become convicted for a two-year sentence each. To the contrary, if they both refused to testify, they would get a minimal punishment of one year – as prosecutor would have not enough evidence for a longer sentence (*). A matrix of choice is the following:

Sentence (Alice, Bob), in years

Alice

Testifies

Remains silent

Bob

Testifies

Alice – 2 years, Bob – 2 years

Alice – 3 years, Bob – 1 year

Remains silent

Alice – 1 year, Bob – 3 years

Alice – 1 year, Bob – 1 year

So, if Alice and Bob have had no previous agreement about cooperating against the prosecutors, their rational strategy would be to testify against one another – as spending just one year in prison is better than spending three. Thus, they both testify and receive a two-year sentence, while if they both kept silent, they could have received a lesser sentence. The trick is that each actor, A and B, is selfish and does what he or she thinks is best for him or her. And this leads to worse results for the both.

The power of this simple theory is that there are numerous examples of this dilemma happening here and there. In the days of Cold War, NATO and Warsaw Pact countries had a similar dilemma: to arm or to disarm. From each side’s point of view, disarming while their opponent continued to arm would have led to military inferiority and possible annihilation. Conversely, arming when their opponent disarmed would have led to superiority. If both sides chose to arm, neither could afford to attack the other, but the cost of developing and maintaining a nuclear arsenal were huge. If both sides chose to disarm, war would be avoided and there would be no costs. Although the ‘best’ overall outcome is for both sides to disarm – so that economies of the countries in both blocks could flourish, the rational behavior led the both to arm, and this is indeed what happened.

Now, back to information security industry. When we’re trying to sell our products and solutions, we have a dilemma – to generate FUD (fear, uncertainty, doubt) – or not. We are, essentially, in the “arms race” with other security vendors – who generates more FUD, wins more attention and, depending on the monetization skills, gains more revenue. But FUD generation requires effort, money – and, to make things worse, the effect wears off. Common people get used to hearing news about hacks, breaches and other nasty cyber things. Journalists and bloggers are tired, too. Brian Krebs, quoted in this article, said: «I have to admit even I get sick of these stories. At some level you have to ask: ‘Does this breach really matter’?”

And, as with prisoner’s dilemma, the solution is similar: cooperation. How to do it properly – is an open question.

______________________________________________________________________________________

(*) To be precise, this is a description of a non-strict Prisoners’ dilemma, where “selfish” payoff is equal to “cooperated”. In a strict Prisoner’s dilemma setting the payoff for being selfish and testifying against another person in custody has to be greater than payoff of keeping silent. I’ve done this on purpose to illustrate the similarity of the Prisoner’s dilemma to information security industry.

Дилемма заключенного в индустрии информационной безопасности

Друзья знают, что я интересуюсь самыми разными направлениями человеческой мысли. На этот раз в материалах по теории игр мне встретилась так называемая дилемма заключенного. Меня поразило сходство этой проблемы с ситуацией вокруг анонсов исследований сложных целенаправленных атак в частности, и в целом с положением дел в индустрии информационной безопасности.

Сначала я объясню, в чем состоит дилемма заключенного (для тех, кто по той или иной причине еще не знает, что это такое). Представим, что под следствием находятся двое подозреваемых. Следователи предлагают первому подозреваемому (Алисе) свидетельствовать против второго (Боба). Если Алиса согласится, то ей будет вынесен менее суровый приговор (один год тюрьмы), а Боб гарантированно получит максимальный срок (три года тюрьмы). Разумеется, Боб получает симметричное предложение. Но если оба подозреваемых будут свидетельствовать друг против друга, то следствие получит достаточно данных, чтобы посадить каждого на два года. Если же оба подозреваемых откажутся сотрудничать со следствием, то получат минимальный срок (один год), поскольку у прокурора не будет оснований требовать более длительного заключения(*). Таблица вариантов выглядит следующим образом: ​

Срок заключения (для Алисы и Боба), в годах

Алиса

Дает показания

Молчит

Боб

Дает показания

Алиса – 2 года, Боб – 2 года

Алиса – 3 года, Боб – 1 год

Молчит

Алиса – 1 год, Боб – 3 года

Алиса – 1 год, Боб – 1 год

Итак, если Алиса и Боб заранее не договорились сотрудничать против следствия, то рациональной стратегией для них будет давать показания друг против друга (провести один год в тюрьме лучше, чем три). Поэтому оба дают показания и снабжают следователей информацией, достаточной для вынесения им двухлетнего приговора – с учетом сотрудничества со следствием. Хотя если бы оба молчали, то получили бы меньший срок. Получается, что каждый участник действует, исходя из строго эгоистичных соображений, а в результате оба оказываются в худшей ситуации.

Важность этой простой теории подтверждается многочисленными примерами подобной дилеммы из реальной жизни. Во времена холодной войны страны НАТО и участники Варшавского договора столкнулись с аналогичной дилеммой: разоружаться или продолжать гонку вооружений. С точки зрения каждой из сторон разоружение в ситуации, когда противник продолжает вооружаться, означало уязвимость в военном смысле и грозило уничтожением. Напротив, сохранение вооружений при условии разоружения оппонента означало получение военного превосходства. Если обе стороны наращивали объемы вооружений, то нападение для любой из сторон оказывалось невозможным, однако расходы на создание и поддержание ядерного арсенала становились огромными. Если бы обе стороны выбрали разоружение, то это позволило бы избежать и войны, и непомерных расходов. Таким образом, наилучшим решением было разоружение обеих сторон, которое позволило бы экономике стран из обоих блоков процветать. Однако рациональные соображения побудили обе стороны продолжать гонку вооружений.

Вернемся к индустрии информационной безопасности. Продавая наши продукты и решения, мы встаем перед дилеммой: создавать ли атмосферу страха, неуверенности, сомнения или же не создавать ее. Мы фактически ведем «гонку вооружений» с другими поставщиками решений безопасности. Кто сможет напугать большее количество клиентов, тот, в зависимости от прокачанности навыка коммерциализации этого внимания, больше и заработает. Однако нагнетание атмосферы страха и неопределенности требует усилий и, как следствие, влечет расходы, но главное – эффект довольно постепенно сходит на нет. Обычные люди уже привыкли к новостям о взломах и уязвимостях информационных систем, а также других громких киберпреступлениях, и не реагируют на них так же остро, как раньше. Журналисты и блогеры устали не меньше читателей. Брайан Кребс (Brian Krebs), на которого ссылается эта статья, признается: «Эти истории приелись даже мне. В какой-то момент вы неизбежно задаетесь вопросом – так ли важно рассказывать об очередном нарушении безопасности?»

Правильное для всех решение здесь такое же, как и в дилемме заключенного: необходимо сотрудничать. Другой вопрос – как правильно наладить такое сотрудничество – пока остается открытым.

_________________________________________________________________________________

(*) Уточним, что здесь описываются нестрогие условия дилемма заключенного, где выгода от «эгоистичного» решения равна выгоде от кооперативного поведения. В строгой формулировке условий дилеммы заключенного выгода от эгоистичного выбора (свидетельства против другого подозреваемого) должна быть выше, чем от молчания. Я специально останавливаюсь на этом варианте формулировки дилеммы заключенного, потому что он лучше всего иллюстрирует положение дел в индустрии информационной безопасности.