information
Before reading this text, it is recommended to read the beginning of this story. Otherwise it will not be clear why it was necessary to build a complex structure instead of doing it as usual information, in a simple way.
Signals and contexts
We need to learn to get rid of the illusion that information is contained in books, hard disks, cables, radio waves and other objects, from which we are accustomed to “extract” it. If we finally accepted that the reification of the notion of “information” is unacceptable, then we simply have to admit that, for example, when reading a book, we find information, but it is not in the subject that we are obliged to use for this. The object must be present (it is impossible to read a book without having it, but it is impossible) contain information in itself, the physical object can not.
Let’s carefully analyze what happens when we read a book. Certainly there is a certain physical process, and some stages of reading the book are most conveniently described in terms of physical terms. In particular, if we read through the paper book, then it must exist as a material object, and some acceptable level of illumination should be provided. The optical system of the “eye” must also be, and it must be in good order. The use of other methods of reading (Braille, voice programs) is not very much changed, and in these cases it also makes sense to talk about some material component that must also be there.
About what we, the readers, The brain after the content is somehow delivered, you can also try to talk in physical terms, but this is not very promising. Something, of course, is happening. The material component, undoubtedly, takes place, but the ways to translate into material terms such, for example, a simple and obvious situation as “surprised by the unexpected turn of the plot”, we now do not have. It can not be ruled out that we will never have such a method. At least because in different heads the mechanism of surprise to the unexpected turn of the plot can be realized differently.
The specificity of information processes, unlike material ones, lies in the fact that the same information process can be realized ” In matter “in fundamentally different ways, but at the same time to remain oneself. For example, the sum of two numbers can be found using an electronic calculator, a wooden account, counting sticks, a piece of paper and pens, or in general in the mind. The meaning and result of the action will remain the same. The book can be obtained in paper form by mail or electronically by e-mail. The method of implementation, of course, affects many of the nuances, but the essence and meaning of what is happening remain unchanged. Any attempt to “ground” the information process into the material component (“surprise is nothing more than as internal secretion of dopamine”, “rapture – is nothing more than as internal secretion of endorphins” Akin to how we said that the addition of two numbers is nothing more than like moving wooden knuckles along iron guides. Material reality is total, therefore, any information process must have a material aspect, but to it one can not and can not be reduced, otherwise the addition of numbers will have to become a monopoly prerogative of wooden accounts. Turning to the consideration of the information aspect of what is happening it is necessary to be able to abstract from the material aspect, while of course, realizing that it certainly exists, but what exactly it is, it is not very important for us.
Let us continue our consideration of the process of reading the book, abstracting from the details Material realization of what is happening. In order for the reader to successfully read the text delivered to its receptors, a number of conditions must be fulfilled. First, he must know the language in which it is written. Secondly, he must be able to read. Thirdly, he must understand why this occupation for him is now preferable to all others. It is easy to see that in all these conditions it is a question of the reader’s information, because “knowledge”, and “skill”, and “understanding” are all synonyms for the notion of “information”. Thus, to read the book, we have two sets of conditions for the successful course of the process: the availability of a text delivered in some way and the preliminary readiness of the reader. The condition for the delivery of text will be denoted as the requirement for the presence of signal . The condition for readiness of the reader is denoted as the requirement for the presence of context .
What is important, the same two sets of conditions are observed in any process that we can identify as finding information. Even if you consider such a simple thing as a radio-controlled car, getting them commands is possible only when, firstly, everything is in order with the delivery of the radio signal (the antenna is not broken and the car did not roll too far from the console) and, secondly, the unit Car management “understands” the commands sent by the console. It turns out that even though everything seems to be happening in a reliably deterministic “piece of hardware”, the most important component that ensured the successful reception of the data from the transmitter was the knowledge that the receiver’s designer received from the transmitter designer. It was this knowledge that ensured that the receiver became a material object, in which the atoms were located not as horrible, but quite specific in a special way . The radio wave that came to the antenna is not all the information that came into the receiver. There was also, perhaps, an electronic letter received by the developer of the control unit of the car from the colleague who was developing the console.
Both components – both signal and context – we can consider and In the material aspect, and in the information aspect. But if the information aspect of the signal can sometimes be abstracted (especially when the channel width is obviously redundant), then it is impossible to abstract from the information aspect of the context, which in its essence is the ability to interpret a signal. Context is information about how a signal can be interpreted and therefore we are obliged to consider it as an immaterial entity.
It may seem that in transferring a mysterious immateriality into this some mysterious “context” There is some element of a scam. But it is not difficult to see that the perceived information and information constituting the context are different information. The plot of the book and the knowledge of the language on which it is written are different knowledge. If the resulting recursiveness of the construction (for the existence of a second-order context we need a third-order context, and so on deep into infinity) causes some concern, then immediately, running a little forward, I note that this is not a defect of the signal-contextual design, Its most valuable property. We return to this topic in the fifth chapter in order to prove an extremely useful theorem through the recursiveness of the signal-contextual design.
To solve our metaphysical problems, the essential benefit of considering information as what happens on a combination of a signal with a context is, That such a design is just obtained by that bridge between the worlds, which we so lacked. If in a particular situation we managed to abstract from the information aspects of the signal (which is often not difficult), we get the opportunity to talk about the participation of material objects in the information process. If at the same time we managed to also consider the context in its entirety of its dual nature (in this age of information technology this is a common thing), then as a result we have for a concrete situation a full bridge between the material and information worlds. It should be noted at once that the presence of the bridge still does not give us the right to reify the information. The signal, if considered as a material object, can be re-encrypted (the file is written on a USB flash drive, a flash drive in the pocket), but the context, that is, the signal interpretation ability, can not be re-encrypted.
Information the situation of data transmission, we have a transmitter that “puts” information into a signal and a receiver that “extracts” information from it. There is a persistent illusion that information is something that exists within the signal. But we need to understand that the interpretation of a specially prepared signal is by no means the only scenario for obtaining information. Paying attention to what is happening around, we get a lot of information that no one sent to us. The chair does not send us information that it is soft, the desk does not send information that it is solid, black paint on the book page does not send us information about the absence of photons, the switched off radio does not send information about that it is silent. We are able to understand the surrounding material phenomena, and they become information for us because we have a context in advance that allows us to interpret what is happening. Waking up at night, opening our eyes and not seeing anything, we do not extract information about what has not yet dawned, not from the present physical phenomenon, but from its absence. The absence of the expected signal is also a signal, and it can also be interpreted. But the absence of context can not be any such a special “zero” context. If there is no context, then there is nowhere to get information, no matter how much the signal comes.
We all know perfectly well what information is (the beings who live in an information suit can not be otherwise), but are used to consider information Only that part of it, which is here designated as a “signal”. The context is a matter for us, as it stands, and therefore we habitually endure it for brackets. And leaving the context behind the brackets, we are forced to put all the “information” in the signal and, thus, to unmercifully reify it.
There is nothing difficult in getting rid of the “information” reification. You just need to learn in time to remember that in addition to the signal there is always a context. A signal is just a raw material that acquires meaning (value, usefulness, significance and, yes, informative) only when it comes to the right context. And the context is a thing that must necessarily be said in non-material terms (otherwise speaking will not make sense)
Let’s briefly recall the topic of “information properties” and estimate how these properties fit into a two-component Signal-context construction.
- Novelty. If the reception of the signal does not add anything to the information aspect of the already existing context, then the signal interpretation event does not arise.
- Reliability. Interpretation of a signal by a context should not give false information (“truth” and “lie” are concepts applicable to information, but not applicable to material objects).
- Objectivity. The same as reliability, but with an emphasis on the fact that the signal can be the result of another context. If the context that is trying to obtain information and the context of the intermediary do not have an understanding (primarily on the objectives pursued), then the reliability of the information will not be.
- Completeness. The signal is, objective, reliable, but it is not enough for the context for obtaining full-fledged information.
- The value of (usefulness, significance). There is a signal, but there is no suitable context. All words are understandable, but the meaning is not captured.
- Availability. Characteristics of the signal. If the signal can not be obtained, even the presence of the most beautiful suitable context will not help the information to arise. For example, anyone would easily come up with what can be done with accurate data about how tomorrow’s football game will end. But, unfortunately for many, this signal will appear only after the end of the match, that is, when its usefulness and significance will be far from the same.
In my opinion, the properties listed above resemble not properties, but a list of possible malfunctions. Properties – it still must be something that describes what we can expect from the subject, and what can not be counted on. Let’s try to derive from the “signal + context” design at least a few obvious consequences, which, in fact, will be properties of not specifically taken information, but information in general:
- Subjectivity of information. The signal can be objective, but the context is always subjective. Therefore, information by nature can only be subjective. About the objectivity of information can be said only if it was possible to ensure the unity of the context among different subjects.
- Informational inexhaustibility of the signal. The same signal, falling into different contexts, gives different information. That’s why you can, from time to time, rereading your favorite book, each time to find something new.
- The law of the preservation of information does not exist. It does not exist at all. We like it when the objects we operate with strictly obey the laws of conservation and do not tend to appear out of nowhere, and certainly do not have the habit of disappearing into nowhere. Information, unfortunately, does not apply to such subjects. We can rely on the fact that only the signal can obey the laws of conservation, but there is not and can not be information inside the signal. You just need to get used to the idea that in the normal mode the information comes from nowhere and goes to nowhere. The only thing we can do to keep it at least somehow is to take care of the safety of the signal (which, in principle, is not a problem), the context (which is much more complicated, since it’s a volatile thing) and the reproducibility of the situation of signal entry into the context .
- Information is always the complete and undivided property of that subject, in the context of which it happened. A book (a physical object) can be someone’s property, but the idea born of its reading is always the undivided property of the reader. However, if you legitimize private ownership of the souls of other people, you can legitimize private ownership of information. This, however, does not negate the author’s right to be considered an author. Especially if it’s true.
- The signal can not be attributed to characteristics applicable only to information. For example, the characteristic “truth” can be applied only to information, that is, to a combination of a signal with a context. The signal itself can not be true or false. The same signal in combination with different contexts can give true information in one case, and in the other case it is false. I have two news for the adherents of the “book” religions: one is good, and the other is bad. Good: their sacred books are not lies. Bad: they do not contain the truth in themselves either.
To answer the question “where does information exist?” Without using a two-component signal-contextual design, the following popular approaches have to be used:
- “Information can exist in material objects” . For example, in books. When this approach is brought to its logical completeness, one inevitably has to recognize the existence of an “inforod” – a subtle substance present in books other than paper fibers and pieces of paint. But we know how books are made. We know for sure that no magical substance is poured into them. The presence of subtle substances in the objects we use to obtain information contradicts our everyday experience. The signal-contextual design perfectly dispenses with subtle substances, but at the same time provides an exhaustive answer to the question “why does the book actually need a book?”
- “The world is riddled with information fields, in the fine structure of which everything that we know is written down” . A beautiful and very poetic idea, but if so, it is not clear why the Hamlet volume is needed to read Hamlet. Does it work like an antenna tuned to a specific Hamlet wave? We know how the volumes of Hamlet are made. We know for sure that no detector circuits that are configured to receive otherworldly fields are embedded in them. Signal-contextual construction does not need any assumptions about the existence of parallel invisible worlds. She does well without these superfluous essences.
- “Information can exist only in our heads” . A very popular idea. Самый коварный и живучий вариант реификации. Коварность его объясняется в первую очередь тем, что никакого стройного понимания того, что происходит в наших головах, наука пока не выработала, и во мрак этой неизвестности бывает удобно прятать любые недодумки. В нашем большом и разнообразном мире бывает так, что человек пишет произведение, а потом, не успев никому его показать, умирает. А потом, по прошествии лет, рукопись находят на чердаке, и люди узнают то, о чём ни один из них всё это время не знал. Если информация может существовать только в головах, то как она может перескочить тот период времени, когда нет ни одной головы, которая ею владеет? Сигнал-контекстная конструкция объясняет этот эффект просто и естественно: если сохранился сигнал (рукопись на чердаке) и не окончательно утерян контекст (люди не разучились читать), то информация не потеряна.
Давайте посмотрим, как в идею сигналов и контекстов укладывается то, что происходит при передаче информации. Казалось бы, должно происходить нечто удивительное: на стороне передатчика информация есть, потом передатчик отдаёт приёмнику сигнал, в котором информации нет, и уже на стороне приёмника информация снова есть. Предположим, Алиса намерена попросить Боба что-то сделать. Сразу заметим, что Алиса и Боб совсем не обязательно должны быть живыми людьми. Алиса может быть, например, сервером бизнес-логики, а Боб – сервером базы данных. Суть происходящего от этого не меняется. Итак, Алиса имеет информацию, которая, конечно же, есть внутри неё сочетание сигнала и контекста. Имея эту информацию, а также информацию о том, какие сигналы умеет принимать и интерпретировать Боб, она производит в материальном мире некоторое изменение (например, пишет записку и прикрепляет магнитиком на холодильник или, если Алиса и Боб являются серверами, то задействует сетевую инфраструктуру). Если Алиса не ошиблась насчёт Боба, то Боб принимает сигнал в свой имеющийся у него контекст и обретает информацию о том, чем ему теперь следует заняться. Ключевой момент – общность контекста. Если мы говорим о людях, то общность контекста обеспечивается наличием общего языка и вовлечённостью в совместную деятельность. Если мы говорим о серверах, то общность контекстов реализуется через совместимость протоколов обмена данными. Именно общность контекстов позволяет информации как будто перепрыгнуть тот участок пути, где она существовать не может, и оказаться на стороне приёмника. Вообще говоря, информация, конечно, никуда не прыгает. О том, что Алиса обладает той же самой информацией, что и Боб, можно говорить только в том случае, если они обладают неразличимо одинаковыми сигналами и неразличимо одинаковыми контекстами. В жизни людей такого не бывает. Увидеть зелёный цвет так жекак его видит другой человек, невозможно, но возможно между собой договориться, что такой цвет мы между собой будем обозначать сигналом «зелёный».
Сигнал-контекстная конструкция – не совсем новость для мировой философии. Ещё 250 лет тому назад Иммануил Кант писал о том, что «наше знание (информация?) хоть и проистекает из опыта (сигнал?), но совершенно невозможно без наличия у познающего субъекта априорного знания (контекст?)».
Измерение информации
Измерение информации в битах – любимое дело. Невозможно отказать себе в удовольствии порассуждать об этом, попутно примерив методику подсчёта к ставшей нам известной и, надеюсь, понятной сигнал-контекстной конструкции.
Если вспомнить классическую теорию информации, то обобщённая формула, по которой вычисляется количество информации (в битах), выглядит следующим образом:
где n – количество возможных событий, а pn – вероятность n-го события. Давайте подумаем, что в этой формуле к чему с точек зрения приёмника и передатчика. Передатчик может рапортовать, например, о ста событиях, из которых первое, второе и третье имеют вероятность по 20%, а оставшиеся 40% равномерно размазаны по остальным девяноста семи событиям. Нетрудно посчитать, что количество информации в рапорте об одном событии с точки зрения передатчика равно примерно 4.56 бит:
I = — (3 × 0.2×log2(0.2) + 97 × (0.4/97)×log2(0.4/97)) ≈ — (-1,393156857 — 3,168736375) ≈ 4.56
Не удивляйтесь, пожалуйста, дробному результату. В технике, конечно, в таких случаях приходится округлять в большую сторону, но точная величина тоже часто бывает интересна.
Если приёмник ничего не знает о распределении вероятностей (а откуда ему знать?), то с его точки зрения количество получаемой информации равно 6.64 бит (это тоже можно легко посчитать по формуле). Теперь представим себе ситуацию, что для нужд приёмника интересны только события номер 1 («казнить»), 2 («помиловать») и 100 («наградить орденом»), а всё остальное – это не интересное «прочее». Допустим, у приёмника уже есть статистика по предыдущим эпизодам, и он раскладки вероятностей знает: казнить – 20%, помиловать – 20%, наградить орденом – 0.4%, прочее – 59.6%. Считаем, получаем 1.41 бит.
Разброс получился существенный. Давайте поищем объяснение этому феномену. Если вспомнить, что информация – это не есть только лишь один объективно существующий сигнал, а сочетание «сигнал + контекст», то становится совсем не удивительно, что количество информации, возникающей при получении сигнала, также должно получаться контекстно-зависимым. Таким образом, имеем неплохое согласование сигнал-контекстной концепции с математической теорией информации.
Величина «I»вычисляемая через рассмотренную формулу, обычно используется для решения следующих задач:
- Для конструирования среды передачи данных. Если задача кодирования сформулирована как «отдать всё, что есть, но сделать это максимально эффективно», то при решении её для случая, описанного в рассмотренном примере, нужно ориентироваться на величину 4.56 бит. То есть постараться сделать так, чтобы в среднем миллион циклов передачи максимально близко укладывался в 4 561 893 бит. На то, что получится ужаться в меньший объём, рассчитывать не стоит. Математика неумолима.
- Для понимания, насколько уменьшается неопределённость получателя при поступлении сигнала. Считается, что поступление информации уменьшает информационную энтропию приёмника на величину своего количества. Если рассматривать количество информации в этом смысле, то правильными ответами в зависимости от свойств приёмника будут 6.64 и 1.41 бит. Величина 4.56 тоже будет правильным ответом, но только в том случае, если приёмнику интересны все события и ему заранее известны их вероятности.
В подавляющем большинстве случаев, когда мы говорим о битах, байтах, мегабайтах или, например, гигабитах в секунду, мы ориентируемся на первую трактовку. Нам всем гораздо больше нравится пользоваться широкополосным Интернетом, чем чахлым dial-up-соединением. Но иногда бывает так, что нам приходится полдня просидеть в Интернете, прочитать гору текстов и просмотреть кучу видеороликов только для того, чтобы наконец-то получить на интересующий нас вопрос простой бинарный ответ в стиле «да или нет». При этом наша неопределённость уменьшается не на те десятки гигабайт, которые нам пришлось к себе прокачать, а всего лишь на один бит.
Энтропийная трактовка природы информации вызывает больше вопросов, чем даёт ответов. Даже с чисто житейской точки зрения мы видим, что минимальная неопределённость наблюдается у тех сограждан, которые не прочитали ни одной книжки, и все познавательные контакты которых с внешним миром ограничиваются просмотром телесериалов и спортивных передач. Эти уважаемые субъекты пребывают в полной счастливой определённости по всем мыслимым вопросам мироздания. Неопределённость появляется только с расширением кругозора и приобретением пагубной привычки задумываться. Ситуация, когда получение информации (чтение хороших умных книжек) увеличивает неопределённость, невозможна с точки зрения энтропийной теории информации, но с позиций сигнал-контекстной теории это вполне рядовое явление.
Действительно, если результатом принятия сигнала становится формирование нового контекста, то для его прокорма нам нужны всё новые и новые сигналы, которые удовлетворят этот контекст, но побочным действием могут сформировать новый первозданно голодный контекст. Или даже несколько.
Не меньше удивления вызывают рассуждения о том, что информация может быть как-то связана с упорядоченностью (если энтропия – это мера хаоса, то негэнтропия, то есть информация, должна быть мерой упорядоченности). Давайте рассмотрим следующие последовательности нулей и единиц:
0000000000000000000000000000000000000000
. Идеальный порядок в стиле «мечта хозяйки». Но информации здесь нет, как нет её на чистом листе бумаги или только что отформатированном жёстком диске.1111111111111111111111111111111111111111
. По сути, то же самое.0101010101010101010101010101010101010101
. Уже интереснее. Порядок остался идеальным, информации по-прежнему не густо.0100101100001110011100010011100111001011
. Это я не поленился побросать монетку. 0 – орёл, 1 – решка. Бросать старался честно, и поэтому можно предположить, что получился идеальный беспорядок. Есть ли здесь информация? А если да, то о чём? Напрашивается ответ «обо всём», но если так, то как её извлечь в пригодном к использованию виде?1001100111111101000110000000111001101111
. Аналогично монетке, но только через генератор псевдослучайных чисел.0100111101110010011001000110010101110010
. Тоже похоже на такую же случайную ерунду, но это не она. Ниже скажу, что это.
Если убрать текстовые комментарии и загадать загадку, что из этого могло быть результатом бросания монетки, то первые три варианта отпадут сразу. 5-й тоже под подозрением, потому что единиц больше, чем нулей. Это неправильное рассуждение. При честном бросании монетки выпадение всех этих вариантов имеет одинаковую вероятность, равную 2-40. Если я продолжу бросать монетку без сна и отдыха в надежде воспроизвести хотя бы один из шести представленных вариантов, то можно ожидать, что если мне повезёт, примерно через сто тысяч лет мне это удастся. Но какой конкретно из этих вариантов воспроизведётся первым, предсказать невозможно, поскольку они все равновероятны.
Шестым пунктом, кстати, представлено слово «Order» (то есть «порядок») в восьмибитном ACSII-коде.
Получается, что информации нет ни в идеальном порядке, ни в идеальном беспорядке. Или всё-таки есть? Представьте себе, что идеально беспорядочная последовательность нулей и единиц (№4), получена путём бросания монетки не мной, а сотрудником шифровального центра вражеской армии, и сейчас используется как кусок секретного ключа, которым шифруются депеши. В этом случае эти нолики и единички сразу перестают быть бессмысленным цифровым хламом, и сразу становятся суперважной информацией, за которую дешифровальщики будут готовы продать душу. Ничего удивительного: сигнал обрёл контекст, и, таким образом, стал весьма информативным.
У меня нет ни малейшего желания утверждать, что энтропийная теория информации полностью не верна. Есть ряд узкоспециальных применений, в которых она даёт адекватный результат. Нужно просто чётко понимать границы её применимости. Можно предположить, что одним из ограничений должно стать требование, чтобы принимаемый сигнал не приводил к формированию контекста. В частности, этому критерию соответствует большинство средств связи. О выделении сигнала из шума действительно можно говорить как о борьбе с энтропией.
Измерение информации имеет ещё один аспект, о котором лучше не забывать. Результатом любого единичного измерения является число. В нашем случае это биты, байты, гигабайты. Получив число, мы обычно рассчитываем на то, что дальше сможем им привычным нам образом оперировать. Сравнивать на «больше/меньше», складывать, умножать. Рассмотрим два примера применения операции «сложение» к количествам информации:
- Есть две флешки. Первая – 64 ГБ, вторая – 32 ГБ. Итого у нас есть возможность записать на них 96 ГБ. Всё так, всё честно и корректно.
- Есть два файла. Первый – 12 МБ, второй – 7 МБ. Сколько у нас всего информации? Рука тянется сложить и получить 19 МБ. Но не будем спешить. Для начала скормим эти файлы архиватору. Первый файл сжался до 4 МБ, второй до 3 МБ. Можем ли мы теперь сложить числа и получить суммарный истинный объём имеющихся данных? Я бы предложил не спешить и посмотреть глазами на содержимое исходных файлов. Смотрим и видим, что всё содержимое второго файла имеется в первом файле. Получается, что размер второго файла вообще нет смысла прибавлять к размеру первого. Если бы первый файл был другим, тогда сложение имело бы смысл, но в данном конкретном случае второй файл ничего к первому не прибавляет.
С точки зрения количества информации очень интересной получается ситуация с квайнами – программами, одной из функций которых является выдача собственного исходного кода. Кроме этой функции такая программа может содержать в себе что-нибудь ещё: какой-нибудь полезный алгоритм, тексты, изображения и тому подобное. Получается, что внутри программы есть это «что-то ещё», и в довесок к этому, есть она же сама, внутри себя содержащая ещё раз всю саму себя целиком плюс то самое «что-то ещё». Это можно выразить вот такой формулой: A = A+B, где B не равно нулю. Для аддитивных величин такое равенство существовать не может.
Таким образом, с количеством информации получается очень странная ситуация. Можно сказать, что количество информации – условно-аддитивная величина. То есть в некоторых случаях мы имеем право складывать имеющиеся числа, а в некоторых – нет. Когда речь идёт о ёмкости канала передачи данных (в частности, флешка вполне может рассматриваться как канал передачи данных из прошлого в будущее), то сложение корректно, а при «взвешивании» конкретного сигнала мы получаем величину, возможность сложения которой с другими ей подобными величинами определяется внешними факторами, о существовании которых мы можем даже не знать. Например, об информационной ёмкости генома человека (ДНК можно рассматривать как среду передачи данных, и, насколько мне известно, есть группы исследователей, пытающиеся сконструировать накопители на основе ДНК) говорить можно, и она равна примерно 6.2 Гбит, но любой ответ на вопрос «сколько информации записано конкретно в моём геноме?» будет бессмысленным. Максимум, что можно утверждать – это то, что какая бы методика подсчёта ни была применена, результат не может превышать те самые 6.2 Гбит. Или, если реальность вдруг такова, что нужно учитывать не только последовательность нуклеотидных оснований, то может. Если же говорить об общем количестве информации, содержащейся в живой клетке, то, по-видимому, ответ на этот вопрос вообще не может быть получен в силу хотя бы того, что сама по себе клетка является живым существом, а не средой передачи данных.
В завершение темы «измерение информации» хотелось бы ввести понятие «класс информативности», позволяющий оценить объём информации если не количественно, то хотя бы качественно:
- Конечная информативность – ситуация, когда весь необходимый контексту сигнал может быть закодирован дискретной последовательностью конечной длины. Именно для таких ситуаций применимо измерение информации в битах. Примеры:
- Текст «Гамлета».
- Все дошедшие до нас тексты, когда-либо сочинённые человечеством.
- Информация в геноме.
Имеющиеся сейчас информационные технологии работают именно с конечными информативностями.
- Бесконечная информативность – ситуация, когда для кодирования сигнала требуется дискретная последовательность бесконечной длины, и любое ограничение («сжатие с потерями») до конечной длины неприемлемо. Пример: данные о положении шаров, которые нужно сохранять при идеальном моделировании бильярда с тем, чтобы если потом запустить процесс в обратном направлении, сложилась исходная позиция. В данном случае скорости и положения шаров нужно иметь с бесконечной точностью (бесконечное количество знаков после запятой) так как в силу имеющихся сильных нелинейностей ошибка в любом знаке имеет свойство накапливаться и приводить к качественно другому результату. Аналогичная ситуация возникает при численном решении нелинейных дифференциальных уравнений.Несмотря на кажущуюся запредельность, нет никаких фундаментальных причин тому, чтобы с развитием технологий мы не обрели средства, позволяющие работать с бесконечными информативностями.
- Неразрешимая информативность – ситуация, при которой требуемые данные не могут быть получены никаким способом в силу фундаментальных ограничений либо физического, либо логического характера. Примеры:
- Невозможно узнать, что вчера произошло на звезде, удалённой от нас на 10 световых лет.
- Невозможно одновременно с абсолютной точностью узнать импульс и положение частицы (квантовая неопределённость).
- Находясь в ситуации принятия решения, субъект не может заранее знать, какое конкретно из имеющихся альтернатив решение он примет. В противном случае (если ему решение известно) он не находится в ситуации принятия решения.
- Полное детерминистическое описание Вселенной не может быть получено никаким образом. Против этого работает сразу весь комплекс фундаментальных ограничений – и физических, и логических. Плюс к ним добавляются эффекты, связанные с парадоксом брадобрея.
Если по поводу физических ограничений ещё остаётся некоторая надежда на то, что уточнение картины реальности позволит перевести некоторые казавшиеся неразрешимыми информативности в конечные или хотя бы в бесконечные, то логические ограничения не могут быть преодолены ни при каком развитии технологий.
«Информация» в физике
Исторически связь темы «информация» с темой «энтропия» возникла из рассуждений о демоне Максвелла. Демон Максвелла – фантастическое существо, сидящее возле дверцы в стенке, разделяющей две части камеры с газом. Когда слева прилетает быстрая молекула, он дверцу открывает, а когда медленная – закрывает. А если справа прилетает быстрая, он дверцу закрывает, но если медленная – открывает. В результате слева скапливаются медленные молекулы, а справа – быстрые. Энтропия замкнутой системы растёт, и на генерируемой демоном разнице температур мы к своему удовольствию можем запустить вечный двигатель второго рода.
Вечный двигатель невозможен, и поэтому для того, чтобы привести ситуацию в соответствие с законом сохранения энергии, а заодно в соответствие с законом неубывания энтропии, пришлось рассуждать следующим образом:
- Когда работает демон, энтропия газа уменьшается.
- Но при этом, поскольку молекулы взаимодействуют с демоном, газ не является изолированной системой.
- В качестве изолированной системы нужно рассматривать систему «газ + демон».
- Энтропия изолированной системы не может уменьшаться, поэтому энтропия плюс энтропия демона не уменьшается.
- Из этого следует, что энтропия демона растёт.
Пока всё логично. Но что может значить «энтропия демона растёт»? Демон получает информацию (работаем пока в традиционной терминологии) о приближающихся молекулах. Если информация – это отрицательная энтропия, то энтропия демона должна уменьшаться, а не расти. Предположим, что демон выполняет нехитрое умственное усилие, и через механизм дверцы передаёт информацию на летящую молекулу (или, как вариант, не передаёт). Отрицательная энтропия возвращается в молекулу, и тем самым уменьшает энтропию газа. Но почему растёт энтропия демона? Почему мы учитываем только исходящий от демона информационный поток, но не учитываем входящий? Что будет, если демон не будет забывать сразу о том, какие сигналы он получил от прилетающих молекул, а будет их запоминать? Можно ли в этом случае говорить о том, что энтропия демона не увеличивается?
Норберт Винер, рассматривая демона Максвелла («Кибернетика») пишет, что вечный двигатель собрать на этой штуке не получится, потому что рано или поздно возрастающая энтропия демона достигнет критического предела, и демон испортится. В принципе, это логично, но вряд ли порчу демона следует объяснять тем, что он раздаст свою изначальную мудрость молекулам, и сам станет глупым. С информационной точки зрения работа демона очень простая и нудная. Ни о какой «растрате душевных сил» говорить не приходится. Точно так же мы не говорим, что, например, каждый пропускаемый через программу архиватора файл увеличивает энтропию архиватора и тем самым постепенно снижает его способность сжимать данные. Скорее всего, невозможность вечного двигателя на демоне Максвелла должна объясняться не информационно-технологическими соображениями, а тем, что энергетический выигрыш от манипулирования молекулой не может превышать энергетические затраты на выяснение параметров подлетающей молекулы плюс затраты на манипулирование дверцей.
Формулы, по которым считаются термодинамическая и информационная энтропии в целом похожи. Термодинамическая энтропия (сравните с формулой (1) выше):
где pi – вероятность i-го состояния, а kB – постоянная Больцмана. Но данная формула неизбежно завязана на то, что существует субъект, который проклассифицировал состояния и выделил конечное количество интересующих его групп. Если попытаться избавиться от заинтересованного субъекта, то можно обнаружить, что есть высокий риск того, что правильным образом выражение должно быть записано так:
При этом общая вероятность равна 1 (система обязательно находится в каком-то из состояний):
Бесконечное количество возможных состояний гораздо ближе к правде жизни, чем конечное. Нетрудно показать, что если в рассматриваемой системе не стремится к нулю процент состояний xу которых вероятность px не равна нулю, интегральная энтропия стремится к бесконечности. В терминах формулы (2):
Таким образом, если верно предположение о том, что операция интегрирования здесь уместна (а для этого достаточно всего лишь того, чтобы хотя бы одна из физических величин обладала свойством непрерывности), то «информационная» ёмкость практически любой (т.е. кроме вырожденных случаев) материальной системы оказывается неограниченной. Это уничтожает любой смысл приравнивать информационную энтропию термодинамической. Похожесть формул можно списать на то, что в нашем мире есть много принципиально разных вещей, выражаемых похожими формулами. Есть и другие аргументы в пользу соответствия термодинамической и информационной энтропий, но, насколько мне известно, они либо никогда не подвергались экспериментальной проверке, либо (как, например, принцип Ландауэра) сами выведены из предположения о равенстве энтропий.
Говоря о связи темы «информация» с физикой, нельзя не упомянуть о понятии «квантовая информация». Законы квантовой механики таковы, что в некоторых случаях, описывая происходящее, действительно имеет смысл пользоваться информационными терминами. Например, согласно принципу неопределённости Гейзенберга, мы можем узнать точно либо импульс частицы, либо её положение. Из этого возникает иллюзия, что, проводя измерение, мы можем получить не больше некоего максимального объёма информации. Из этого как-бы автоматически следует вывод, что внутри частицы может существовать информация, притом её объём строго лимитирован. Ничего не могу сказать о продуктивности или контрпродуктивности такого использования информационных понятий, но есть сильное подозрение, что протянуть мостик между сугубо физическим понятием «квантовая информация» и той информацией, которой мы оперируем на макро-уровне (например, «Гамлетом»), не просто трудно, а вовсе невозможно.
Для передачи нашей макро-информации мы используем не только физические предметы и явления, но также и их отсутствие. Текст в книге кодируется не только веществом краски, но и неокрашенными промежутками (с равномерно окрашенного листа ничего прочитать невозможно). Можно также легко придумать массу ситуаций, когда очень важный сигнал передаётся не энергетическим воздействием, а его отсутствием. Я ещё готов представить себе, что внутри частицы содержится некая загадочная субстанция, которая и является информацией, но представить себе, что внутри отсутствия частицы тоже содержится информация – это что-то совсем противологичное.
На текущем уровне развития знаний о том, как устроен наш мир, мне кажется, что к понятию «квантовая информация» следует относиться примерно так же, как к понятию «цвет», используемому применительно к кваркам. То есть да, «квантовую информацию» вполне можно и нужно признать ценной концепцией, но при этом следует чётко понимать, что к той «информации», о которой мы говорим во всех остальных случаях, она может иметь только косвенное отношение. Возможно, конфликт можно разрешить тем соображением, что физика вполне может продуктивно изучать материальную основу передаваемого сигнала (в частности, давать ответ о максимально возможной ёмкости канала передачи данных), но наличие сигнала – хоть и необходимое, но не достаточное условие того, чтобы мы имели право говорить о том, что в рассматриваемом объекте присутствует информация.
Нужно чётко понимать, что физическую основу информации (некий аналог флогистонной теории, но только применимый не к теплоте, а к информации) мы не имеем не потому, что ещё не всё знаем, а потому, что её в принципе быть не может. Одним из самых существенных требований естественнонаучного метода, наиболее чётко и последовательно применяемого именно в физике, является изгнание из изучаемого явления наделённого свободой воли действующего субъекта. Субъект (так называемый «имплицитный наблюдатель»), конечно, должен быть рядом с рассматриваемым явлением, но он не в праве ни во что вмешиваться. Механистичность исследуемых явлений, то есть тотальное отсутствие целенаправленной деятельности – это то, что делает физику физикой. Но как только мы начинаем говорить об информации, мы никак не можем уйти от того, что получаемые субъектом сигналы являются сырьём для принятия решений. Имплицитному наблюдателю физических явлений должно быть всё равно, что наблюдать, а действующему субъекту, живущему одновременно и в материальном мире, и в информационной реальности, «всё равно» быть в принципе не может. Из этой диаметральной противоположности требований, предъявляемых к субъекту, помещаемому внутрь исследуемых явлений, следует, что явление «информация» не может быть сведено ни к каким физическим явлениям, включая даже те, которые ещё не открыты.
Что особенно удивительно, у материалистов с идеалистами достигнут прекрасный консенсус по вопросу о необходимости существования глубинной физической «информации». Материалистам это на руку тем, что физика таким образом достигает тотальности описания реальности (не остаётся ничего, что не является физической реальностью). А идеалисты празднуют победу потому, что таким образом их «дух» официально признаётся основой мироздания. Оба издавна враждующих лагеря празднуют победу, но скорее не друг над другом, а над здравым смыслом. И материалисты, и идеалисты весьма агрессивно реагируют на любую попытку связать материальный и идеальный миры любым альтернативным банальной реификации способом.
Данные
Как говорилось выше, сигнал можно рассматривать не только материальный объект, но и объект нематериальный. Согласно принципу тотальности физической реальности, сигнал, конечно, обязан иметь физическое воплощение, но сплошь и рядом случаются ситуации, когда физическая сторона сигнала нас вообще не интересует, а интересует лишь нематериальная составляющая. В таких случаях мы полностью абстрагируемся от физики сигнала, и в результате для дальнейших рассуждений у нас остаётся весьма странный предмет. Физику мы отбросили, а о наличии внутри этого предмета информации по-прежнему говорить нельзя, поскольку это всего лишь сигнал, и для того, чтобы возникла информация, для него нужен контекст. Такие объекты будем называть данными. Данные – это нематериальный сигнал. Нематериальный он не потому, что имеет какую-то потустороннюю природу и путешествует через тонкие астральные сущности, а потому, что в данном конкретном случае нам оказалось не важно, как именно он путешествует. Например, томик «Гамлета» в красивом переплёте, да её и какого-нибудь раритетного издания – это сигнал, в котором нам интересна и материальная, и нематериальная составляющие. Но если нужно просто освежить в памяти монолог «быть или не быть», то мы ищем тексти нам не важно, где его найдём. Годится и бумажная книжка, и файл на флешке, и сервис сетевой библиотеки. Текст «Гамлета» – это данные, а томик подарочного издания «Гамлета» – уже не только они.
Особый интерес представляет случай объекта, для которого не только физика не существенна, но ещё и подходящий контекст отсутствует. Представьте себе надпись на незнакомом языке (я китайского не знаю, поэтому пусть это будет китайский). Мне хочется узнать, что эта надпись означает, и поэтому я беру листочек и аккуратно перерисовываю иероглифы. Просто копирую все чёрточки и закорючки. Для меня это всё именно чёрточки и закорючки. Смысл изображённого появится только после того, как я покажу этот листочек тому, кто владеет китайским языком, и он переведёт надпись на какой-нибудь более понятный мне язык. А пока этого не случилось, я на листочке имею информационный объект, который определённо есть сигнал, но сигнал для отсутствующего в данный момент контекста.
В случае с копированием китайских иероглифов я мог бы не утруждать себя перерисовыванием данных (это именно данные) на бумажку, а сфотографировать на телефон и послать своему знакомому по почте. По ходу путешествия этого сигнала к моему другу отсутствие контекста для интерпретации этой надписи наблюдалось бы не только у меня, но и у программного обеспечения телефона, почтовой программы и всего того великолепия протоколов Интернета, которые поучаствовали бы в передаче данных. Можно было бы сказать, что вообще такая вещь, как понимание, свойственно исключительно нам, сверхсложным существам из плоти и крови, но это будет не совсем правда. Например, при передаче картинки с иероглифами транспортный уровень сети дополнит передаваемые данные своими служебными данными, которые понятны (то есть будут правильно проинтерпретированы) тем механизмам, которая реализует транспортный уровень сети передачи данных. Если предположить, что понимание – это совсем не обязательно что-то загадочное и высокое, проникновенным взором усматривающее самую суть явлений, а всего лишь наличие адекватного контекста (в случае транспортного уровня сети этот контекст формируется тем, что разработчики сетевой инфраструктуры чтут протокол TCP), то можно уверенно говорить о том, что технические системы у нас тоже наделены способностью к пониманию. Да, это понимание не очень похоже на наблюдаемую нами изнутри самих себя нашу способность ухватывать суть явлений, но дела это не меняет.
Понятие «данные» хоть и не привносит ничего принципиально нового в метафизику информации, но, тем не менее, с практической точки зрения оказывается на редкость полезным. Двухкомпонентная конструкция «сигнал-контекст» хоть и обладает полнотой (третья компонента не нужна), но при попытке применить её в повседневной жизни, сразу возникает масса неудобств. Источник неудобств – в том, что понятие «сигнал» чётко ассоциируется с материальной стороной процесса, а когда материальную сторону приходится игнорировать, «заземляющая» сила «сигнала» начинает сильно мешать. Представьте себе, что ваш товарищ собирается совершить путешествие в Бремен и спрашивает вас, как бы ему можно было узнать побольше об этом городе. Первое, что вам приходит на ум – это Википедия. Посмотрев по разным языковым разделам, вы замечаете, что русскоязычная статья хоть и хорошая, но очень маленькая, а англоязычная хоть и значительно длиннее, но всё же уступает статье на немецком языке (что ничуть не удивительно). Теперь вам нужно сказать своему товарищу, что в англоязычной статье информации больше, чем в русскоязычной, но тут вы, вспомнив философию информации, понимаете, что информации не может быть ни в каком из разделов. Статья в Википедии – это сигнал, который становится информацией, когда попадает в контекст. Проблема. «Сигнал, записанный на жёстких дисках англоязычных серверов Википедии при попадании в контекст твоего восприятия…» – фу, жуть какая. Как товарищу добраться своим контекстом до этих жёстких дисков? «Сигнал, доставленный через Wi-Fi с англоязычных серверов…» – тоже что-то не то. При чём здесь Wi-Fi, если товарищ с таким же успехом может пойти в Википедию через мобильный Интернет? При замене понятия «сигнал» синонимом «данные» (в данном случае получается именно синоним) все неудобства исчезают. «Можешь посмотреть в Википедии, но имей в виду, что в английской, и особенно в немецкой статье данных про Бремен значительно больше». Воспользовались тем, что хоть, как мы теперь знаем, информации в статье быть не может, но данные – это, собственно, и есть статья. Сигнал, физическая реализация которого в данном конкретном случае нам не важна.
По своей практике скажу, что, поэкспериментировав с переходом на корректную терминологию в повседневной жизни и профессиональной деятельности (информационные технологии), я ни разу не столкнулся с тем, чтобы кто-то из моих собеседников вообще заметил, что что-то поменялось. Единственное, что теперь приходится обращать внимание на то, о чём идёт речь – о данных, или всё же об информации. Например, в базе данных теперь хранится не информация, а именно данные, но пользователи, занося эти данные в базу, таким образом обмениваются информацией. Система по-прежнему остаётся информационной, но функционирует на основе накапливаемых данных.
С развитием сетей передачи у нас появился достаточно простой критерий, позволяющий определить, имеем ли мы право полностью абстрагироваться от физики конкретного объекта и, в результате, говорить о нём как об информационном объекте (то есть о данных). Критерий такой: если предмет мы можем передать через Интернет, значит, мы имеем полное право говорить об этом объекте как об объекте информационном.
Примеры:
- Котлета – не информационный объект, поскольку она нам интересна (вкусна и питательна) именно в своём физическом воплощении.
- Рецепт приготовления котлеты – информационный объект. Его можно передать без потерь через Интернет. Со всеми подробностями и тонкостями, с картинками, и даже с видео.
- Монета – не совсем информационный объект. Особенно, если она имеет нумизматическую ценность.
- Деньги – информационный объект. Многим из нас, в том числе и мне, приходилось платить через Интернет. Вообще, деньги – это чрезвычайно интересный с точки зрения философии информации объект. Возможно, вы помните сказанное выше, что информация не подчиняется законам сохранения, но для того, чтобы деньги работали, подчиняться закону сохранения они должны. Поэтому для информационных объектов «деньги» искусственно создана такая инфраструктура, которая целенаправленно блюдёт баланс «если где-то прибавилось, значит, где-то обязательно ровно столько же убавилось». К обсуждению феномена денег мы ещё вернёмся, когда будем обсуждать субъектов и системообразование.
Для чистоты терминологии, конечно, лучше было бы говорить не об «информационном», а о нематериальном объекте. Но термин «информационный» намного удобнее, поскольку в нём отсутствует частица «не».
Обращаю внимание на то, что рассмотренное простое эмпирическое правило идентификации информационного объекта имеет структуру «если-то», и поэтому работает только в одну сторону. То есть из того, что мы что-то никак не можем передать через Интернет, вовсе не следует того, что объект не является информационным. Например, мы не можем в «живом» виде (то есть в виде последовательности цифр) передать число пи. Мы можем передать рецепт приготовления этой «котлеты» (то есть программу, последовательно вычисляющую знаки после запятой числа пи), можем передать картинку с обозначением, но саму эту «котлету» – не можем.
Информация в числе пи
Коль скоро зашла речь о числе пи, имеет смысл разобрать один забавный кейс, связанный с этой штукой.
Поговаривают, что среди цифр, составляющих бесконечно длинный хвост числа пи теоретически можно отыскать любую наперёд заданную последовательность цифр. Если быть совсем точными, то это пока всего лишь гипотеза, не доказанная и не опровергнутая. Существуют действительные числа, обладающие свойством содержать в себе любую конечную последовательность цифр (они называются «нормальными»), но гипотеза о том, что число пи является нормальным, пока не доказана. В частности, нормальное число, содержащее любую последовательность нулей и единиц, можно получить, последовательно дописывая в хвост после десятичной точки переборы всех комбинаций, постепенно наращивая разрядность. Вот так:
0,(0)(1)(00)(01)(10)(11)(000)(001)(010)(011)(100)(101)(110)(111)(0000)… и так далее.
В десятичном виде получится число чуть больше 0.27638711, и в этом числе гарантированно присутствует содержимое любого файла с вашего жёсткого диска, даже того, который вы ещё туда не записали.
Но мы зажмуримся на то, что нормальность числа пи не доказана, и будем в своих рассуждениях считать его нормальным. Число пи покрыто массой историй, загадок и предрассудков, и поэтому о нём рассуждать интереснее, чем о какой-то немудрёной алгоритмической выдаче. Если вам доставляет неудобство допущенная математическая погрешность, просто считайте, что дальше здесь я говорю не о числе пи, а о любом нормальном по основанию 2 числе.
Получается весьма величественная картина. Представьте себе, что вы на склоне лет сядете, напишете свою подробную биографию, и запишете её в файл. Так вот, выходит, что в числе пи эта последовательность нулей и единиц есть уже сейчас. А также есть такая же последовательность, но дополненная точной датой и обстоятельствами вашей смерти. Вот уж поистине получается книга судеб, не правда ли?
Начало нашей книги судеб (целая часть и первые 20 знаков бесконечного хвоста) выглядит так:
11.00100100001111110110…
Давайте подумаем, как такую книгу судеб можно было бы прочитать. Допустим, я написал свою биографию вплоть до текущего момента, взял вычислитель фантастической мощности и заставил его найти имеющееся начало моей биографии среди знаков числа пи. Глупо рассчитывать на то, что первое попавшееся вхождение имеет осмысленное продолжение. Скорее всего, там дальше идёт бессмысленная мешанина нулей и единиц. Немножко поколдовав над алгоритмом вычислителя, я научил его находить не только вхождения известной части биографии, но и анализировать, является ли продолжение осмысленным текстом, написанным примерно в том же стиле. И вот наконец мой вычислитель нашёл такой фрагмент. Уж не знаю, обрадует он меня или опечалит, но я не буду останавливать вычислитель. Пусть он продолжит свою работу. Через какое-то время он меня завалит ворохом найденных в числе пи версий моей дальнейшей биографии. Некоторые будут вполне обычными («работал, вышел на пенсию тогда-то, состарился, болел тем-то, умер тогда-то»), но остальные будут намного интереснее. Например, в одной из версий будет о том, что завтра, не раньше ни позже, случится глобальный зомби-апокалипсис, и меня растерзают кровожадные мертвецы. А в другой обязательно (в числе ведь есть все комбинации ноликов и единичек) будет написано, что я обрету бессмертие и всемогущество, и стану повелителем Вселенной. И ещё бесконечное множество вариантов, нескончаемым потоком выползающих из вычислителя. Какой из этих версий верить? Может быть, самой первой? А почему именно ей?
Для того чтобы упростить себе задачу, попробуем погадать на числе пи немножко попроще. Зададим ему простой бинарный вопрос. Например, выгодно ли мне будет именно сегодня прикупить присмотренный пакет акций? Если первой в дробной части числа пи найдётся единичка, то, значит, всеведущий оракул ответил мне, что выгодно. Если нолик, то это значит, что нужно подождать. Смотрим. Нолик встретился прямо в первой позиции, а единичка, вон, аж даже не во второй, а в третьей. Ой, что-то мне подсказывает, что с таким оракулом я в своей жизни ни одной акции не куплю. К этому бы оракулу ещё бы приложить какого-нибудь дополнительного оракула, который подсказывает, в какую позицию следует смотреть.
Получается, что для извлечения информации из данных книги судеб нам не хватает самой малости – ключика, который подскажет, с какой конкретно позиции следует эту книгу читать. А без ключика единственная информация, которая для нас содержится в бесконечном хвосте цифр числа пи – это отношение длины окружности к диаметру. Как-то даже грустно получается…
Итоги главы
В этой главе при помощи двухкомпонентной конструкции «сигнал-контекст» мы научились не только избавляться от реификации «информации», но и получили инструмент, позволяющий без задействования мистических практик протягивать мостик между материальным и нематериальным аспектами реальности.
Основные рассмотренные понятия и концепции:
- Информация как сочетание сигнала и контекста.
- Сигнал как некое обстоятельство, которое может быть проинтерпретировано.
- Контекст как информация о том, как может быть проинтерпретирован сигнал.
- Связь информации и энтропии существует, но её не следует абсолютизировать. В одних ситуациях обретение информации можно рассматривать как победу нах хаосом, в других – наоборот, в третьих – даже невозможно идентифицировать, об упорядочивании чего может идти речь. Наиболее чётко связь с энтропией прослеживается при решении задачи передачи данных через зашумлённый канал, но эта задача – далеко не всё, что нам доводится делать с информацией.
- Каждый раз, измеряя информациюмы должны задаваться вопросом о том, получаем ли мы в результате аддитивную величину. Если получилась не аддитивная величина, то её лучше ни с чем не складывать и ни на что не умножать.
- Класс информативности как средство на качественном уровне оценить перспективы получения требуемой информации. Три класса: конечная информативность, бесконечная и неразрешимая.
- Информация не может иметь непосредственной физической основы. Любые попытки поиска физической основы информации можно и нужно рассматривать как метастазы реификации. Связь физики с информацией должна осуществляться только через понятие «сигнал».
- Данные как сигнал, от материальной составляющей которого можно абстрагироваться. Понятие «данные» хоть и не имеет отдельной философской ценности, но позволяет избавиться от неудобств, вызванных материалистической ориентированностью понятия «сигнал».
- Инструментальный приём «может ли оно быть передано через Интернет» для быстрого определения, является ли рассматриваемый предмет информационным объектом.
Дальше будет только интереснее, но если вы не разобрались, как нам при помощи сигналов и контекстов удалось подружить физику с лирикой, вам будет грустно.