15-05-2023
Ральф Винтон Лайон Хартли | |
англ. Ralph Vinton Lyon Hartley | |
Дата рождения: | |
---|---|
Место рождения: | |
Дата смерти: | |
Место смерти: | |
Страна: | |
Научная сфера: | |
Альма-матер: | |
Награды и премии |
Ральф Винтон Лайон Хартли (англ. Ralph Vinton Lyon Hartley, 30 ноября 1888, Спрус, Невада — 1 мая 1970, Нью-Джерси) — американский учёный-электронщик. Он предложил генератор Хартли, преобразование Хартли и сделал вклад в теорию информации, введя в 1928 логарифмическую меру информации , которая называется хартлиевским количеством информации.
Содержание |
Он получил высшее образование со степенью A.B. (бакалавр искусств) в Университете Юты в 1909. Как стипендиат Родса, он получил степень B.A. (бакалавр искусств) в 1912 и степень B.Sc. (бакалавр наук) в 1913 в Оксфордском университете.
После возвращения из Англии, Хартли присоединился к Научно-исследовательской лаборатории Западной Электрической Компании и принял участие в создании радиоприёмника для трансатлантических тестов. В течение Первой мировой войны, Хартли решил проблемы, которые препятствовали развитию направленных искателей звукового типа. После войны учёный вплотную занялся проблемой передачи информации (в частности звуковой). В течение этого периода он сформулировал закон: «общая сумма информации, которая может быть передана, пропорциональна переданному частотному диапазону и времени передачи».
Хартли был пионером в области Информационной Теории. Он ввёл понятие «информации» (энтропии) как случайной переменной и был первый, кто попытался определить «меру информации». Хартли развивал понятие информации, основанной на «физическом как противопоставлено с психологическими рассмотрениями» для использования в изучении электронных коммуникаций. Фактически, Хартли соответственно определяет это основное понятие. Вместо этого он обращается к «точности ... информации» и «количества информации».
Информация существует в передаче символов, с символами, имеющими «определённые значения к партийному сообщению». Когда кто-то получает информацию, каждый полученный символ позволяет получателю «устранять возможности», исключая другие возможные символы и их связанные значения.
Точность информации зависит от того, что другие последовательности символа, возможно, были выбраны; мера этих других последовательностей обеспечивает признак количества переданной информации. Таким образом, если бы мы получили 4 различных символа, происходящие с равной частотой, то это представило бы 2 бита.
Хартли награждён премиями за отличия в области науки, этот учёный состоял в американской Ассоциации Продвижения Науки. Хартли принадлежат больше чем 70 патентов (изобретений).
Хотя частотные отношения в электрических связях интересны сами по себе, их обсуждение в этой ситуации едва ли будет оправдано, если мы не сможем вывести из них достаточно общие практические применения к разработке систем связи. То, что я надеюсь достичь в этом направлении, должно установить количественную меру, посредством которой могут быть сравнены мощности различных систем передачи информации» – [1, стр.535] |
Хартли, Ральф.