Warszawa: Wydawnictwo Naukowe PWN, 1969. — 222 s.
Praca nad tą książką została zapoczątkowana przez przygotowanie zbioru notatek na temat teorii informacji i kodów binarnych do cyklu wykładów wygłaszanych w Federalnych Laboratoriach ITT. Następnie notatki te były rozszerzone i wykorzystane jako materiały do jednotrymestralnego kursu dyplomowego na wydziale elektrotechniki Uniwersytetu w Stanfordzie. Przeważająca część końcowej wersji rękopisu została opracowana podczas jednosemestralnego kursu teorii informacji przeprowadzonego w Laboratoriach Badawczych IBM w San Jose w Kalifornii.
Celem tej książki jest przedstawienie podstawowych pojęć teorii informacji, bez wnikania — o ile tylko to jest możliwe — w szczegółowe zależ- ności matematyczne, będące językiem najczęściej używanym dla wyrażania tych pojęć. Wprawdzie możliwe jest traktowanie teorii informacji jedynie jako matematycznych rozważań nad własnościami pewnych wielkości, na zbiorach których zdefiniowana jest miara prawdopodobieństwa, jednakże nas interesować będą związki tej teorii z praktycznymi zastosowaniami i związki pomiędzy badanymi wielkościami i szeroką klasą ważnych intuicyjnych pojęć, występujących w różnych dziedzinach. W celu wydobycia tych związków użyjemy matematyki jako języka adekwatnego do wyrażania teorii informacji. Najważniejsze twierdzenia teorii informacji będą ściśle sformułowane i udowodnione. Kompletne dowody podane będą dla wszystkich twierdzeń, a odwoływanie się do intuicji mieć będzie miejsce tylko przy interpretowaniu wyprowadzonych rezultatów. Pomimo tego podbudowa matematyczna wymagana do zrozumienia wykładanego w tej książce materiału jest całkiem skromna.