Искусственный Разум

Свернуть
X
 
  • Время
  • Показать
Очистить всё
новые сообщения
  • Allent
    Allent

    • 22 September 2005
    • 13332

    #226
    Сообщение от KPbI3

    Сомневаюсь, что такие долгосрочные прогнозы имеют под собой основания.
    сомнение не худшее чувство.

    основание для такого есть
    мне пришлось достаточно много поработать над изучением функций мозга в экстремальных состояниях и изучить литературу к диссертации.
    нет никакого оптимизма в оценке сроков события "мы знаем как работает мозг"
    все проходит

    Комментарий

    • Lokky
      учащийся

      • 18 March 2005
      • 5347

      #227
      Сообщение от Мачо
      Вы не правы. Все зависит от того, сколько байт информации несет в себе один символ на записанном языке.
      И какой же "один символ" мозга? Словарь Даля содержит 200 000 слов (правда, обычный человек, говорят обходится 2000, но возьмём с переизбытком!). Не сложное предложение содержит до 20 слов (опять с громадным переизбытком!). Вы согласны, надеюсь, что брать что-либо крупнее предложения за "один символ" - это совсем нереально будет? Итак, (2*10^5)^20=~10^101 (т.е. один мозговой супер-пупер символ выражается числом менее чем со 101 нулём), тогда, получается, что Вы настаиваете на серъёзном восприятии информации, что мозг содержит количество символов в размере 10^8331? Помоему эта цифра несколько превышает количество информации, необходимой для исчерпывающего описания Вселенной от начала времён .
      Сообщение от Julius
      Тогда, безусловно, в нем содержится намного меньше информации, чем в 400K случайных цифр. Энтропия-то у случайной последовательности цифр намного больше... Поэтому осмысленный текст запоминать легче - там меньше информации.
      Бит - это еденица измерения информации. Любой. У Вас получается, типа, кило свинца тяжелее, чем кило пуха

      Комментарий

      • Мачо
        Holy Shift!

        • 19 July 2005
        • 13581

        #228
        Сообщение от Lokky
        И какой же "один символ" мозга? Словарь Даля содержит 200 000 слов (правда, обычный человек, говорят обходится 2000, но возьмём с переизбытком!). Не сложное предложение содержит до 20 слов (опять с громадным переизбытком!). Вы согласны, надеюсь, что брать что-либо крупнее предложения за "один символ" - это совсем нереально будет? Итак, (2*10^5)^20=~10^101 (т.е. один мозговой супер-пупер символ выражается числом менее чем со 101 нулём), тогда, получается, что Вы настаиваете на серъёзном восприятии информации, что мозг содержит количество символов в размере 10^8331? Помоему эта цифра несколько превышает количество информации, необходимой для исчерпывающего описания Вселенной от начала времён .
        Да что же вас все тянет такие расчеты вести . Если я запомню бесконечное число слов "Бог", каков будет объем запомненной информации?
        http://pics.livejournal.com/futb_all/pic/000hwbg5

        Комментарий

        • Мачо
          Holy Shift!

          • 19 July 2005
          • 13581

          #229
          Сообщение от KPbI3
          Не вспомнит, а воспроизведет на бумаге, в цвете, согласно ГОСТа. Я ясно излагаю?
          В цвете, хоть в чб, фломастеры у меня есть...
          На днях.
          http://pics.livejournal.com/futb_all/pic/000hwbg5

          Комментарий

          • Julius
            Ветеран

            • 23 July 2005
            • 1135

            #230
            Сообщение от Lokky
            Бит - это еденица измерения информации. Любой. У Вас получается, типа, кило свинца тяжелее, чем кило пуха
            Вы путаете две вещи - информационную емкость носителя и количество информации в сообщении. Сообщение "00000000000000000000000000000001" на носителе (в памяти Вашего компьютера) сейчас представлено 32 символами unicode по 16 битов в каждом, то есть, для его хранения израсходовано 512 битов носителя информации (DIMM-а). Но, будучи записанным в двоичной системе, оно займет всего 32 бита. А если его подвергнуть арифметическому кодированию - то всего 5 битов. Где-то таково количество информации в этом сообщении - 5 битов. А вовсе не 512. Так же и с текстом на русском языке. Обладая огромной избыточностью он содержит очень маленькое количество информации, хотя будучи записанным на винчестер в классической кодировке займет целых 400K. Если же те же 400K носителя заполнить случайными десятичными цифрами - информации в них будет содержаться намного больше.

            Комментарий

            • Мачо
              Holy Shift!

              • 19 July 2005
              • 13581

              #231
              Айл би Шрэк

              Сообщение от Julius
              Стоп. Я там выше приводил пример, в чем Вы будете мерять заливаемый в бензобак бензин и возможно ли его измерить в принципе. Ответьте еще раз на этот вопрос, пожалуйста

              Причем тут бензин? Не нужно подменять понятия - Вы подняли вопрос об объеме памяти мозга человека, а не о количестве информации, которая протекает через него за всю жизнь. Но я Вам с цифрами показал, что даже объем протекающей информации хотя он и огромен, все же и рядом не лежал с числами, упомянутыми в работе, на которую Вы ссылались. Соответственно и прочие выводы той работы и подобных ей не вызывают у меня доверия. Когда кто-то пишет ТАКОЙ бред сивой кобылы об объеме памяти мозга (о числах с 8000 знаков), то я просто не могу пройти мимо такого вопиющего безобразия!
              А я понятия и не подменяю, я провожу аналогию. И в случае с объемом бензобака, и в случае с объемом мозга мы имеем дело с объемом - количеством чего-то в ограниченном пространстве. И если входящий в бензобак бензин можно измерить в литрах, то почему-то входящую в мозг информацию измерить, по-вашему, не удается
              Насчет приведенных мной чисел. Я не думаю, что это истинное положение вещей, возможно, что и ложное. Те примеры служили только для одной цели - проиллюстрировать, что объем информации, хранящийся в мозгу, можно измерить в принципе.

              Сообщение от Julius
              Это означает только, что я ВОСПРИНИМАЮ текст иначе, чем он написан, а не то, что я воспринимаю его образами. Лучше было бы переставить буквы - а то на "ег" я споткнулся . Восприятине объективной реальности - это отдельный вопрос.

              Некоторые люди вообще не знают письменности, но умеют говорить. Понятия "буквы" для них не существует. Для них слово - это некий образ, не связанный ни с текстом, ни с алфавитом.
              А знание письменной речи для наличия устной необязательно. И понятие "буква" для них существует - потому что это неотъемлемая часть речи. Как правло, если человек мыслит, он проговаривает про себя мысли словами. Но так бывает не всегда - шахматисты, композиторы, математики не всегда выражают свои мысли в словестной форме.

              Сообщение от Julius
              Да нет, можно запоминать даже несвязанные друг с другом слова. Я к тому, что при равном количестве информации (400 кб) кол-во символов будет разной: у чисел и букв. У букв кол-во будет меньше, и легче будет запомнить.

              О каких 400 килобайтах Вы говорите? 400K информации, лишенной избыточности? Тогда, я думаю, одинаково сложно ее запомнить, вне зависимости от того, как именно она представлена - цифрами, буквами или картинками. Потребуется разное количество цифр, букв или картинок. Но запомнить будет примерно одинаково сложно - с точностью до особенностей работы зрительной памяти или той памяти, которая отвечает за языковые образы, например. 400K осмысленного текста на русском языке? Тогда, безусловно, в нем содержится намного меньше информации, чем в 400K случайных цифр. Энтропия-то у случайной последовательности цифр намного больше... Поэтому осмысленный текст запоминать легче - там меньше информации.
              Я думаю, бессмысленный, случаный набор цифр или букв будет запомнить одинаково сложно. Символы букв ведь потому несут в себе больше информации, что из них можно составить большее кол-во комбинаций (слова), нежели из цифр. У азбуки Морзе, например, с этим вообще беда - для передачи одной буквы надо как минимум два символа дать. А вот при осмысленном тексте и осмысленных цифрах буквы будет запомнить легче. Скорее всего.
              Читали "цифровые" стихи? Типа 8 10 42, 42 17... 60 13 5 20 20 20

              Сообщение от Julius
              Вы немного не поняли. Цифр всего 10 (от 0 до 9), далее идут их комбинации - например, число 3947. А букв НЕПОВТОРЯЮЩИХСЯ в кириллическом алфавите 33. Кол-во информации, приходящейся на символ в языке, высчитывается с применением логарифмов

              Ну и? Почему тогда по-вашему сложнее запомнить именно 1000 случайных цифр, а не 1000 букв осмысленного текста на русском языке? Согласно Вашим же словам, в 1000 букв формально как бы больше информации... Логарифм-то в первом случае от 10, а во втором - от 33, значит в тексте "больше" информации по Вашей теории. А запоминать осмысленный текст намного легче. Почему? Парадокс? А на самом деле - потому, что мозгу важна избыточность, которая у текста на русском языке огромна, а у случайной последовательности цифр - нулевая. Поэтому на самом-то деле в связном тексте намного меньше информации, чем в случайной последовательности цифр.
              А вот тут поподробнее Почему же?
              http://pics.livejournal.com/futb_all/pic/000hwbg5

              Комментарий

              • Julius
                Ветеран

                • 23 July 2005
                • 1135

                #232
                Сообщение от Мачо
                И в случае с объемом бензобака, и в случае с объемом мозга мы имеем дело с объемом - количеством чего-то в ограниченном пространстве. И если входящий в бензобак бензин можно измерить в литрах, то почему-то входящую в мозг информацию измерить, по-вашему, не удается
                Мы ведь говорили о том, сколько информации человек способен ЗАПОМНИТЬ (хотя правильнее было бы сказать "усвоить"), а не о том, сколько первичных данных протекает через его мозг за всю жизнь. Если продолжить Вашу аналогию с бензином, то Вы ведь хотите измерить объем бензобака, а не количество бензина, которое потенциально может "съесть" автомобиль за год.
                Сколько информации поступает в мозг действительно можно неплохо измерить. Основной канал поступления этой информации - это глаза. Количество палочек и колбочек на сетчатке известно, принципы их работы тоже, свойства неплохо изучены, количество волокон в глазном нерве тоже примерно подсчитано. Так что объем входящей информации оценить можно, причем с неплохой точностью.
                Но, во-первых, это будет число с 18-20 цифрами, а не ~8000 как тут утверждалось. Что принципиально, так как во втором случае возможности мозга можно было бы назвать условно бесконечными и беспредельными.
                А во-вторых и это главное - оценка объема входящей информации не позволяет нам определить, сколько же мозг способен именно "запомнить" (сохранить в обработанном виде), а не обработать в режиме реального времени и выбросить за ненадобностью.
                Толковой работы, где бы делалась попытка оценить информационную емкость мозга я не видел. То, что я видел - это дилетантские (с точки зрения информатики!) изначально (по методике) ошибочные оценки.
                Понятно, что препятствует построению хорошей оценки - иная природа памяти человека по сравнению с памятью машины. Это не память, которая хранит факты как таковые, а нейронная сеть, само состояние которой в частности отражает и "запомненные" факты.

                Сообщение от Мачо
                Насчет приведенных мной чисел. Я не думаю, что это истинное положение вещей, возможно, что и ложное. Те примеры служили только для одной цели - проиллюстрировать, что объем информации, хранящийся в мозгу, можно измерить в принципе.
                Здесь я с Вами согласен - оценить объем этой памяти в принципе можно, особенно если бы это было очень актуально и кто-нибудь поставил бы себе такую цель. Понятно, что хотя такие термины очень плохо подходят для мозга, но если все-таки оценить, какому количеству байтов ПРИМЕРНО ЭКВИВАЛЕНТНА его память, то это число окажется совсем не фантастическим, а сравнительно небольшим.

                Сообщение от Мачо
                А знание письменной речи для наличия устной необязательно. И понятие "буква" для них существует - потому что это неотъемлемая часть речи.
                Нет, понятия "буква" для них зачастую не существует. Алфавит довольно позднее изобретение человечества.

                Сообщение от Мачо
                Как правло, если человек мыслит, он проговаривает про себя мысли словами. Но так бывает не всегда - шахматисты, композиторы, математики не всегда выражают свои мысли в словестной форме.
                Согласен. Еще одна иллюстрация того, что сложно говорить о мозге в "байтовой" терминологии.

                Сообщение от Мачо
                Я думаю, бессмысленный, случаный набор цифр или букв будет запомнить одинаково сложно. Символы букв ведь потому несут в себе больше информации, что из них можно составить большее кол-во комбинаций (слова), нежели из цифр. У азбуки Морзе, например, с этим вообще беда - для передачи одной буквы надо как минимум два символа дать.
                Чудес не бывает и здесь я с Вами согласен - собственно об этом и говорю, что запомнить случайный набор сложнее всего. Причем случайный набор букв - сложнее, чем случайный набор из такого же количества цифр, по причине, которую Вы назвали. Но Вы видимо не знаете такого интересного парадокса - что именно в СЛУЧАЙНОЙ последовательности как ни странно содержится больше всего информации! Только эта информация бесполезна.

                Сообщение от Мачо
                А вот при осмысленном тексте и осмысленных цифрах буквы будет запомнить легче. Скорее всего.
                Читали "цифровые" стихи? Типа 8 10 42, 42 17... 60 13 5 20 20 20
                Думаю, что при "одинаковой осмысленности" понимающему смысл человеку - одинаково легко.

                Сообщение от Мачо
                Сообщение от Julius
                А на самом деле - потому, что мозгу важна избыточность, которая у текста на русском языке огромна, а у случайной последовательности цифр - нулевая. Поэтому на самом-то деле в связном тексте намного меньше информации, чем в случайной последовательности цифр.
                А вот тут поподробнее Почему же?
                Часто происходит путаница между потенциальной информационной емкостью носителя и количеством информации в сообщении.
                Вы конечно же знаете о существовании различных алгоритмов компрессии информации без потери данных. Почему эти алгоритмы вообще возможны, если, казалось бы, 100 битов - это всегда 100 битов? Как же нам удается тогда сжимать данные?
                Вся хитрость в том, что в реальной информации очень много избыточности - дублирования, лишней информации, которую можно сократить без потери смысла и затем заново полностью восстановить по оставшимся данным. Архиватор как раз и выискивает эту избыточность и сокращает ее.
                Однако, в истинно случайной последовательности НЕТ избыточности! Она непредсказуема и поэтому не может быть подвергнута никакой компрессии.
                Вы легко можете это проверить - сгенерируйте большой файл, состоящий из случайных байтов - и НИ ОДИН архиватор на Земле не сожмет его! Если у Вас нет желания писать хороший генератор случайной последовательности - возьмите большой файл, уже сжатый хорошим архиватором с максимальной степенью компрессии - в котором архиватор уже устранил избыточность - и попробуйте его сжать еще раз любым другим архиватором.
                Но текст на русском языке хороший архиватор сжимает в 3-4 раза. Если бы этот архиватор еще и понимал правила русского языка и словоизменения в нем - он сжал бы текст раз в 8 - такие эксперименты делались. Даже сложно себе представить, во сколько бы можно было бы сжать текст, если бы наш архиватор понимал еще и правила построения предложений и СМЫСЛ фраз.

                Комментарий

                • Мачо
                  Holy Shift!

                  • 19 July 2005
                  • 13581

                  #233
                  Юлиус, ну пойму одного - почему-то сообщения от Вас не подсвечиваются у меня как новые

                  Вон чего накопал (осенило, млин )



                  Большая советская энциклопедия

                  Информации теория, математическая дисциплина, исследующая процессы хранения, преобразования и передачи информации. И. т. - существенная часть кибернетики. В основе И. т. лежит определённый способ измерения количества информации, содержащейся в каких-либо данных ("сообщениях"). И. т. исходит из представления о том, что сообщения, предназначенные для сохранения в запоминающем устройстве или для передачи по каналу связи, не известны заранее с полной определённостью. Заранее известно лишь множество, из которого могут быть выбраны эти сообщения, и в лучшем случае - то, как часто выбирается то или иное из этих сообщений (т. е. вероятность сообщений). В И. т. показывается, что "неопределённость", с которой сталкиваются в подобной обстановке, допускает количественное выражение и что именно это выражение (а не конкретная природа самих сообщений) определяет возможность их хранения и передачи. В качестве такой "меры неопределённости" в И. т. принимается число двоичных знаков, необходимое для фиксирования (записи) произвольного сообщения данного источника. Более точно - рассматриваются все возможные способы обозначения сообщений цепочками символов 0 и 1 (двоичные коды), удовлетворяющие условиям: а) различным сообщениям соответствуют различные цепочки и б) по записи некоторой последовательности сообщений в кодированной форме эта последовательность должна однозначно восстанавливаться. Тогда в качестве меры неопределённости принимают среднее значение длины кодовой цепочки, соответствующее самому экономному способу кодирования; один двоичный знак служит единицей измерения (см. Двоичные единицы).
                  Пример. Пусть некоторые сообщения x1, x2, x3 появляются с вероятностями, равными соответственно 1/2, 3/8, 1/8. Какой-либо слишком короткий код, скажем

                  x1 = 0, x2 = 1, x3 = 01,
                  непригоден, так как нарушается вышеупомянутое условие б). Так, цепочка 01 может означать x1, x2 или x3. Код

                  x1 = 0, x2 = 10, x3 = 11,
                  удовлетворяет условиям а) и б). Ему соответствует среднее значение длины кодовой цепочки, равное

                  Нетрудно понять, что никакой другой код не может дать меньшего значения, т. е. указанный код - самый экономный. В соответствии с выбором меры неопределенности, неопределенность данного источника сообщении следует принять равной 1,5 двоичной единицы.

                  Здесь уместно подчеркнуть, что термины "сообщение", "канал связи" и т. п. понимают в И. т. очень широко. Так, с точки зрения И. т., источник сообщений описывается перечислением множества x1, x2,... возможных сообщений (которые могут быть словами какого-либо языка, результатами измерений, телевизионными изображениями и т. п.) и соответствующих им вероятностей p1, p2,...

                  Нет никакой простой формулы, выражающей точный минимум H? среднего числа двоичных знаков, необходимого для кодирования сообщении x1, x2,..., xn через вероятности p1, p2,..., pn этих сообщений. Однако указанный минимум не меньше величины


                  (где log2a обозначает логарифм числа a при основании 2) и может превосходить её не более чем на единицу. Величина Н(энтропия множества сообщений) обладает простыми формальными свойствами, а для всех выходов И. т., которые носят асимптотический характер, соответствуя случаю H?, разница между H и H? абсолютно несущественна. Поэтому именно энтропия принимается в качестве меры неопределённости сообщений данного источника. В приведённом выше примере энтропия равна


                  С изложенной точки зрения, энтропия бесконечной совокупности оказывается, как правило, бесконечной. Поэтомув применении к бесконечным совокупностям поступают иначе. Именно, задаются определённым уровнем точности и вводят понятие e - энтропии, как энтропии сообщения, записываемого с точностью до e, если сообщение представляет собой непрерывную величину или функцию (например, времени); подробнее см. в ст. Энтропия.

                  Так же как и понятие энтропии, понятие количества информации, содержащейся в одном случайном объекте (случайной величине, случайном векторе, случайной функции и т. д.) относительно другого, вводится сначала для объектов с конечным числом возможных значений. Затем общий случай изучается при помощи предельного перехода. В отличие от энтропии, количество информации, например, в одной непрерывно распределённой случайной величине относительно другой непрерывно распределённой величины очень часто оказывается конечным.

                  Понятие канала связи (см. Канал) в И. т. носит весьма общий характер. По сути дела, канал связи задаётся указанием множества "допустимых сообщений" на "входе канала", множеством "сообщений на выходе" и набором условных вероятностей получения того или иного сообщения на выходе при данном входном сообщении. Эти условные вероятности описывают влияние "помех", искажающих передаваемые сообщения, "Присоединяя" к каналу какой-либо источник сообщений, можно рассчитать количество информации относительно сообщения на входе, содержащееся в сообщении на выходе. Верхняя грань таких количеств информации, взятая по всем допустимым источникам, называется пропускной способностью (ёмкостью) канала. Ёмкость канала - его основная информационная характеристика несмотря на влияние (возможно сильное) помех в канале, при определённом соотношении между энтропией поступающих сообщений и пропускной способностью канала возможна почти безошибочная передача (при надлежащем кодировании, см. Шеннона теорема).

                  И. т. отыскивает оптимальные, в смысле скорости и надежности, способы передачи информации, устанавливая теоретические пределы достижимого качества. Как видно из предыдущего, И. т. носит существенно статистический характер, и поэтому значительная часть ее математических методов заимствуется из теории вероятностей.

                  Основы И. т. были заложены в 1948-49 американским ученым К. Шенноном. В ее теоретические разделы внесен вклад советским учеными А. Н. Колмогоровым и А. Я. Хинчиным, а в разделы, соприкасающиеся с применениями, - В. А. Котельниковым, А. А. Харкевичем и др.
                  http://pics.livejournal.com/futb_all/pic/000hwbg5

                  Комментарий

                  • Julius
                    Ветеран

                    • 23 July 2005
                    • 1135

                    #234
                    Сообщение от Мачо
                    Вон чего накопал (осенило, млин )
                    Ну да, есть такая теория, о ней и толкуем фактически - в переложении на возможности мозга.

                    Комментарий

                    • Мачо
                      Holy Shift!

                      • 19 July 2005
                      • 13581

                      #235
                      Сообщение от Julius
                      Мы ведь говорили о том, сколько информации человек способен ЗАПОМНИТЬ (хотя правильнее было бы сказать "усвоить"), а не о том, сколько первичных данных протекает через его мозг за всю жизнь. Если продолжить Вашу аналогию с бензином, то Вы ведь хотите измерить объем бензобака, а не количество бензина, которое потенциально может "съесть" автомобиль за год.
                      Ну да, только я-то отстаиваю теорию, что информация никуда не теряется и вся полученная мозгом там и остается

                      Сообщение от Julius
                      Сколько информации поступает в мозг действительно можно неплохо измерить. Основной канал поступления этой информации - это глаза. Количество палочек и колбочек на сетчатке известно, принципы их работы тоже, свойства неплохо изучены, количество волокон в глазном нерве тоже примерно подсчитано. Так что объем входящей информации оценить можно, причем с неплохой точностью.
                      Но, во-первых, это будет число с 18-20 цифрами, а не ~8000 как тут утверждалось. Что принципиально, так как во втором случае возможности мозга можно было бы назвать условно бесконечными и беспредельными.
                      Да елы-палы . Мы же не знаем (я точно не знаю ), по какому алгоритму мозг сохраняет информацию! Вот когда ученые это выяснят, то будет яснее информационный объем мозга. А пока мы спорим ни о чем в этом плане . Можно отдаться фантазии

                      Сообщение от Julius
                      А во-вторых и это главное - оценка объема входящей информации не позволяет нам определить, сколько же мозг способен именно "запомнить" (сохранить в обработанном виде), а не обработать в режиме реального времени и выбросить за ненадобностью.
                      Тоже верно, одно из другого не обязательно должно следовать.

                      Сообщение от Julius
                      Толковой работы, где бы делалась попытка оценить информационную емкость мозга я не видел. То, что я видел - это дилетантские (с точки зрения информатики!) изначально (по методике) ошибочные оценки.
                      Понятно, что препятствует построению хорошей оценки - иная природа памяти человека по сравнению с памятью машины. Это не память, которая хранит факты как таковые, а нейронная сеть, само состояние которой в частности отражает и "запомненные" факты.
                      Здесь я с Вами согласен - оценить объем этой памяти в принципе можно, особенно если бы это было очень актуально и кто-нибудь поставил бы себе такую цель. Понятно, что хотя такие термины очень плохо подходят для мозга, но если все-таки оценить, какому количеству байтов ПРИМЕРНО ЭКВИВАЛЕНТНА его память, то это число окажется совсем не фантастическим, а сравнительно небольшим.
                      Ну, попытки объяснить, имхо, лучше, чем вообще не пытаться?

                      Сообщение от Julius
                      Нет, понятия "буква" для них зачастую не существует. Алфавит довольно позднее изобретение человечества.
                      Согласен, письменность вообще и алфавит в частности. Но "буква" могло ими пониматься как единичная неделимая единица языка. Звук определенной тональности. Скорее всего, это понималось интуитивно, подсознательно.

                      Сообщение от Julius
                      Согласен. Еще одна иллюстрация того, что сложно говорить о мозге в "байтовой" терминологии.
                      Вечно вылезут исключения - везде

                      Сообщение от Julius
                      Чудес не бывает и здесь я с Вами согласен - собственно об этом и говорю, что запомнить случайный набор сложнее всего. Причем случайный набор букв - сложнее, чем случайный набор из такого же количества цифр, по причине, которую Вы назвали. Но Вы видимо не знаете такого интересного парадокса - что именно в СЛУЧАЙНОЙ последовательности как ни странно содержится больше всего информации! Только эта информация бесполезна.
                      Согласен. А почему больше всего информации содержится?

                      Сообщение от Julius
                      Часто происходит путаница между потенциальной информационной емкостью носителя и количеством информации в сообщении.
                      Вы конечно же знаете о существовании различных алгоритмов компрессии информации без потери данных. Почему эти алгоритмы вообще возможны, если, казалось бы, 100 битов - это всегда 100 битов? Как же нам удается тогда сжимать данные?
                      Вся хитрость в том, что в реальной информации очень много избыточности - дублирования, лишней информации, которую можно сократить без потери смысла и затем заново полностью восстановить по оставшимся данным. Архиватор как раз и выискивает эту избыточность и сокращает ее.
                      Однако, в истинно случайной последовательности НЕТ избыточности! Она непредсказуема и поэтому не может быть подвергнута никакой компрессии.
                      Вы легко можете это проверить - сгенерируйте большой файл, состоящий из случайных байтов - и НИ ОДИН архиватор на Земле не сожмет его! Если у Вас нет желания писать хороший генератор случайной последовательности - возьмите большой файл, уже сжатый хорошим архиватором с максимальной степенью компрессии - в котором архиватор уже устранил избыточность - и попробуйте его сжать еще раз любым другим архиватором.
                      Но текст на русском языке хороший архиватор сжимает в 3-4 раза. Если бы этот архиватор еще и понимал правила русского языка и словоизменения в нем - он сжал бы текст раз в 8 - такие эксперименты делались. Даже сложно себе представить, во сколько бы можно было бы сжать текст, если бы наш архиватор понимал еще и правила построения предложений и СМЫСЛ фраз.
                      Тогда он общался бы вообще жестами
                      Не очень с Вами согласен. Сгенеренный случайно текстовый файл можно ужать (например, убрать "лишние" пробелы) или описать все по-другому (как в GIF, где архиватор для описания вертикальных черно-белых полос просто разворачивает их по горизонтали).
                      Но согласен с тем, что чем "умнее" архиватор, тем больше он может сжать. Мы же может вычленить главное из фразы и запомнить это
                      http://pics.livejournal.com/futb_all/pic/000hwbg5

                      Комментарий

                      • Вовчик
                        Ветеран

                        • 09 July 2005
                        • 34095

                        #236
                        [QUOTE=Мачо]

                        А пока мы спорим ни о чем в этом плане . Можно отдаться фантазии




                        Ну, попытки объяснить, имхо, лучше, чем вообще не пытаться?
                        Узрел противоречие! Мозги свело! Мачо, тр Ваш пом!
                        Уточните значение слов, и вы избавите человечество от половины заблуждений. / Рене Декарт /...

                        Комментарий

                        • Мачо
                          Holy Shift!

                          • 19 July 2005
                          • 13581

                          #237
                          Сообщение от Вовчик
                          Узрел противоречие! Мозги свело! Мачо, тр Ваш пом!
                          Распрямляй извилину, а то тр пр не понятно
                          Мммм... Вовчик, а где же в моих фразах противоречие? . В том, что мы объясняем, фантазируя?
                          http://pics.livejournal.com/futb_all/pic/000hwbg5

                          Комментарий

                          • Мачо
                            Holy Shift!

                            • 19 July 2005
                            • 13581

                            #238
                            KPbI3, насчет знаков дорожного движения: как бы Вам хотелось, чтобы они были воспроизведены? Поподробней, плиз...
                            http://pics.livejournal.com/futb_all/pic/000hwbg5

                            Комментарий

                            • Вовчик
                              Ветеран

                              • 09 July 2005
                              • 34095

                              #239
                              Сообщение от Мачо
                              Распрямляй извилину, а то тр пр не понятно
                              Мммм... Вовчик, а где же в моих фразах противоречие? . В том, что мы объясняем, фантазируя?
                              Пытаться или не пытаться ? Вот в чем вопрос. (Реплика ГамлЕта не вошедшая в ПСС). И где предел фантазии? И стоит ли ей отдаваться? Или развестись, пока нет детей? В спорте - ясно. Пробежали - вопрос решен. В Технике ясно- самолет сделали хорошо - полетел. В Христианстве ясно - веруешь - пошел по воде. Где критерии истины в Филопсихорелигии. Мы сотни раз высказывали правильные решения, но не знали , что они правильные, и проходили мимо. До каких пор это будет продолжаться, я хочу у Вас спросить Пора прекращать с таким разбазариванием энергии участников Форума (Жизни). Требуется срочное вмешательство армии. Нам нужно успеть еще до того, как мы не успеем. Жувета, как солета.
                              Уточните значение слов, и вы избавите человечество от половины заблуждений. / Рене Декарт /...

                              Комментарий

                              • Julius
                                Ветеран

                                • 23 July 2005
                                • 1135

                                #240
                                Сообщение от Мачо
                                Ну да, только я-то отстаиваю теорию, что информация никуда не теряется и вся полученная мозгом там и остается
                                Это Ваше мнение противоречит наблюдениям. Вы не сможете даже вспомнить детали текстуры асфальта, по которому прошли за несколько секунд до этого, хотя Вы их видели своими глазами. Все опыты показывают, что человек запоминает только важное для себя, а точнее - эмоционально окрашенное для него по какой-то причине (не всегда четко осознаваемой даже).

                                Сообщение от Мачо
                                Да елы-палы. Мы же не знаем (я точно не знаю ), по какому алгоритму мозг сохраняет информацию! Вот когда ученые это выяснят, то будет яснее информационный объем мозга. А пока мы спорим ни о чем в этом плане . Можно отдаться фантазии
                                О чем я и говорю - что пока мы толком не понимаем, как именно мозг обрабатывает информацию и что именно он выделяет из нее, то не можем и хорошо оценить информационную емкость мозга. Но! Это не значит, что нам вообще ничего не извесно. Мы уже неплохо изучили особенности зрительного воприятия, или, например, восприятия речи и звуков вообще. Мы представляем себе, какая информация, поступающая по этим каналам, для мозга не важна. Это понимание позволяет нам успешно разрабатывать алгоритмы комперссии изображений и звука.

                                Сообщение от Мачо
                                Ну, попытки объяснить, имхо, лучше, чем вообще не пытаться?
                                Кто бы спорил.

                                Сообщение от Мачо
                                Сообщение от Julius
                                Но Вы видимо не знаете такого интересного парадокса - что именно в СЛУЧАЙНОЙ последовательности как ни странно содержится больше всего информации! Только эта информация бесполезна.
                                Согласен. А почему больше всего информации содержится?
                                Потому, что истинная случайная последовательность абсолютно непредсказуема и самый простой способ запоминить ее - это выучить наизусть посимвольно, ничего в ней не меняя. Все попытки сократить в ней что-то, выбросить лишнее - обречены на неудачу, так как ведут либо к невосполнимой потере данных, либо увеличивают количество истраченных на хранение битов. В случайной последовательности нет никакой предсказуемости, следовательно, нет и избыточности, которую можно было бы сократить, а затем вернуть обратно. Поэтому и приходится ее просто заучивать наизусть - ведь даже наш мозг не может сократить несократимое и найти порядок в истинном хаосе, где порядка нет.
                                Если же мы работаем, скажем, с осмысленным текстом на русском языке, то даже классический архиватор может найти и устранить в нем избыточность в виде похожих по написанию слов или кусочков фраз и даже устойчивых сочетаний букв. Если же мы еще и "обучим" архиватор правилам словообразования, то достигнем еще большей компрессии. А если мы вместо компьютера используем мозг, способный выделять смысл фраз - то сожмем этот текст в сотни раз. Правда, с потерей формы, но с сохранением смысла.

                                Сообщение от Мачо
                                Но согласен с тем, что чем "умнее" архиватор, тем больше он может сжать. Мы же может вычленить главное из фразы и запомнить это
                                Собственно только главное (или эмоционально окрашенное) мы и запоминаем. Мы не в состоянии хранить в своем мозгу все до мельчайших деталей. Даже те, кто пытаются это делать - имеют очень-очень ограниченные способности. Никакой "фотографической" памяти в мозгу нет ни на изображения, ни на речь (или звуки вообще), ни на что-то другое. Яркие моменты нашей жизни мы запоминаем действительно весьма неплохо - но даже их мы помним без мелких ("несущественных") деталей. Все же остальное мы забываем подчистую. Разговоры о точной фотографической памяти, способной якобы воспроизвести всю жизнь - это лженаука.

                                Комментарий

                                Обработка...