Informatyka Czyli komputery i nie tylko…. Leszek P. Błaszkiewicz.

Slides:



Advertisements
Podobne prezentacje
Grafika Wektorowa Bitmapowa.
Advertisements

Reprezentacja danych w komputerze
dr A Kwiatkowska Instytut Informatyki
przetwarzaniu informacji
POCZĄTKI KOMPUTERYZACJI
JAK ZBUDOWANY JEST KOMPUTER?
Budowa zestawu komputerowego
Podstawy technologii komputerowych
Systemy operacyjne.
Magistrala & mostki PN/PD
Schemat blokowy komputera
PODSTAWY INFORMATYKI Wykładowca: mgr Tadeusz Ziębakowski
Historia rozwoju komputerów
Pliki i foldery, jednostki informacji
Zapis informacji Dr Anna Kwiatkowska.
Budowa Komputera.
Historia i rozwój komputeryzacji.
TECHNOLOGIE INFORMACYJNE
TECHNOLOGIE INFORMACYJNE
Gimnazjum w Leśnej Historia komputerów Wyk. Ewelina Męcina Leśna 2006.
KOMPRESJA DANYCH Marek Dyoniziak.
KOMPRESJA DANYCH DAWID FREJ. Kompresja danych Kompresja danych - polega na zmianie sposobu zapisu informacji w taki sposób, aby zmniejszyć redundancję
Temat 3: Co to znaczy, że komputer ma pamięć? Czy można ją zmierzyć?
Historia i rozwój komputeryzacji.
opracowanie: Agata Idczak
Podstawy układów logicznych
Budowa komputera.
Technologia informacyjna
Podstawowe pojęcia i problemy związane z przetwarzaniem plików graficznych.
EDYTOR GRAFIKI RODZAJE GRAFIKI
HISTORIA KOMPUTERÓW.
Historia maszyn liczących
Historia Informatyki..
Urządzenia wewnętrzne komputera
Autor: Justyna Radomska
Budowa komputera.
Historia komputerów Autor: mgr Elżbieta Mazurowska
Mikroprocesory.
Mikroprocesory mgr inż. Sylwia Glińska.
Jednostki w informatyce i system binarny (dwójkowy)
Jak to jest zrobione? Kalkulator.
Nośniki informacji i akcesoria komputerowe
POŚREDNIK Jak reprezentowana jest informacja w komputerze? liczby – komputer został wymyślony jako zaawansowane urządzenie służące do wykonywania.
Systemy Liczenia - I Przez system liczbowy rozumiemy sposób zapisywania i nazywania liczb. Rozróżniamy: pozycyjne systemy liczbowe i addytywne systemy.
Jednostki używane w informatyce
Formaty zdjęć.
Grafika komputerowa Jest to dziedzina rozwijająca się niezwykle dynamicznie, a jednocześnie wymagająca znacznej mocy obliczeniowej. Łatwo możemy to zaobserwować,
Matematyka i system dwójkowy
 Karta sieciowa to urządzenie odpowiedzialne za wysyłanie i odbieranie danych w sieciach LAN. Każdy komputer, który ma korzystać z dobrodziejstw sieci,
Treści multimedialne - kodowanie, przetwarzanie, prezentacja Odtwarzanie treści multimedialnych Andrzej Majkowski informatyka +
Podstawowe definicje we współczesnej informatyce.
Grafika rastrowa - parametry
 1. Projektowanie instalacji elektrycznych, sieci elektrycznych 2. Montaż instalacji elektrycznych zgodnie z dokumentacją techniczną.
Metody komunikacji dawniej i dziś
Budowa komputera.
Gabriela Barnaś kl.1i. Komunikacja – proces wymiany informacji pomiędzy jej uczestnikami. Istnieją różne sposoby komunikacji: jest to na przykład komunikacja.
Grafika komputerowa.
Grafika komputerowa – Grafika wektorowa i rastrowa
GRAFIKA RASTROWA DALEJ. Podział grafiki komputerowej ze względu na sposób powstawania obrazu: GRAFIKA WEKTOROWA GRAFIKA KOMPUTEROWA GRAFIKA RASTROWA.
MARCIN WOJNOWSKI KOMPRESJA I DEKOMPRESJA PLIKÓW. KOMPRESJA Kodowanie danych w taki sposób, aby zajmowały najmniej miejsca na dysku. Najbardziej znanymi.
Wprowadzenie do zagadnień informatyki.
Schemat blokowy komputera
HISTORIA KOMPUTERA.
Jednostki pamięci komputera
Autor: Rafał Szczurowski
Podstawy Informatyki.
Historia Komputera.
Wstęp do Informatyki - Wykład 6
Historia rozwoju informatyki:
Zapis prezentacji:

Informatyka Czyli komputery i nie tylko…. Leszek P. Błaszkiewicz

Plan wykładu: „Informatyka czyli komputery i nie tylko…” 1. Historia informatyki i podstawowe pojęcia czyli jak to się zaczęło i co wiedzieć warto 2. Architektura komputera czyli z czego się składa i jak działa komputer na naszym biurku 3. Oprogramowanie – systemy operacyjne czyli bez czego nie ruszymy z miejsca 4. Oprogramowanie – programy użytkowe i języki programowania czyli ułatwianie i uprzyjemnianie życia 5. Sieci komputerowe i komunikacja w sieci czyli o tym, że nie trzeba wychodzić z domu żeby aktywnie żyć między ludźmi 6. Informatyka wokół nas czyli nie tylko PC i nie tylko komputery 7. Przestępstwa komputerowe oraz bezpieczeństwo pracy z komputerem czyli komputer to czasami też kłopoty

Informatyka (ang. Computer Science, Computing Science, Information technology, Informatics) to dziedzina nauki i techniki zajmująca się przetwarzaniem informacji - w tym technologiami przetwarzania informacji oraz technologiami wytwarzania systemów przetwarzających informacje. Informatykę można podzielić na dwie główne dziedziny. Pierwsza z nich obejmuje analizowanie informacji przepływających w świecie rzeczywistym - analiza, druga zajmuje się tworzeniem oraz używaniem systemów służących do przetwarzania informacji - obejmuje projektowanie systemów informatycznych, programowanie oraz korzystanie z systemów informatycznych. Obecnie systemy informatyczne tworzone są głównie z wykorzystaniem komputerów jako narzędzi do przetwarzania informacji… Ale nie tylko!

Piwnice/k Torunia Centrum Astronomii

Historia rozwoju informatyki: Odłamek kości datowany na około 8500 lat p.n.e. odkryty w Afryce, który prawdopodobnie ma wyryte karby przedstawiające liczby pierwsze 11, 13, 17 i 19 Pierwszym znanym nam mechanizmem obliczeniowym był abakus, wynaleziony prawdopodobnie przez Babilończyków w latach pomiędzy 1000 a 500 p.n.e., chociaż niektórzy mędrcy sądzą, iż w rzeczywistości wynaleźli go Chińczycy

Notatniki te, datujące się na rok około 1500 n.e. zawierały rysunki mechanicznego kalkulatora i na ich podstawie zbudowano działający model urządzenia da Vinci. Wiele źródeł podaje francuskiego matematyka, fizyka i teologa, Błażeja Pascala jako wynalazcę pierwszej mechanicznej maszyny liczącej, zwanej Maszyną Arytmetyczną. Jednakże, obecnie wygląda na to, iż pierwszy mechaniczny kalkulator mógł być obmyślony przez Leonarda da Vinci na sto pięćdziesiąt lat przed maszyną Pascala.

1625 - Mechaniczny Kalkulator Wilhelma Schickarda Do mnożenia użył on zbioru obracających się, cylindrycznych Kości Napiera. Dodawanie wykonywane było poprzez obracanie tarcz cyfrowych umieszczonych w dolnej części maszyny. Tarcze te połączone były z wewnętrznymi kołami za pomocą zębów umieszczonych na obwodzie i powodujących powstawanie przeniesień podczas przejścia tarczy z 9 na 0. Odejmowanie wykonywało się obracając tarcze wstecz.

1640 - Maszyna Arytmetyczna Błażeja Pascala W roku 1640 Pascal rozpoczął projektowanie urządzenia, które miało pomóc jego ojcu w dodawaniu kwot pieniężnych. Pierwszy działający model, Maszyna Arytmetyczna, został przedstawiony w roku1642, a przez następne dziesięć lat Pascal wykonał jeszcze piętnaście takich urządzeń Urządzenie Pascala mogło jedynie dodawać i odejmować, natomiast operacje mnożenia oraz dzielenia były realizowane za pomocą serii dodawań lub odejmowań. w 1658 Pascal wywołał skandal, gdy pod pseudonimem Amos Dettonville wyzwał na pojedynek innych matematyków, a następnie nagrodę przyznał sobie samemu!

1670 - Rachmistrz Krokowy Gottfrieda von Leibniza Leibniz rozwinął pomysły Pascala i w roku 1671 przedstawił Rachmistrza Krokowego, urządzenie, które oprócz dodawania i odejmowania mogło mnożyć, dzielić oraz obliczać pierwiastki kwadratowe przy pomocy serii dodawań. Urządzenia Pascala i Leibniza były protoplastami dzisiejszych komputerów biurowych i na ich podstawie opierano wytwarzanie arytmometrów mechanicznych aż do początku lat 1970 gdy pojawiły się w końcu ich elektroniczne odpowiedniki o przystępnej cenie.

1800 - Perforowane Karty Jacquarda Na początku 1800 roku Joseph-Marie Jacquard wynalazł metodę automatycznego sterowania układem wątku i osnowy nici na krosnach jedwabnych, która polegała na zapisie wzorów dziurek na zestawie specjalnych kart z wybitymi otworami.. Format 80 kolumnowej karty perforowanej systemu IBM.

1822 n.e. Maszyna Różnicowa Charlesa Babbage'a 1714 - Patent Na Pierwszą Angielską Maszynę do Pisania Henry Mill Właściwie trudno opisać nam okoliczności wyboru układu klawiszy na klawiaturze, a przyglądnąwszy się mu bliżej, dochodzimy do wniosku, iż ten, który go dokonał, musiał być kompletnym idiotą. Więc dlaczego urządzenie tak często przez nas wykorzystywane na co dzień zostało skonstruowane w sposób doprowadzający do szału każdego nowicjusza, który tylko położy na nim swoje palce? Jest to jedno z tych pytań, na które odpowiedzi spowite są mgłą czasu. 1822 n.e. Maszyna Różnicowa Charlesa Babbage'a Pierwsze urządzenie, które można nazwać komputerem we współczesnym znaczeniu tego słowa, zostało obmyślone w 1822 roku przez ekscentrycznego, angielskiego matematyka i wynalazcę, Charlesa Babbage'a.

Na początku lat 1600 szkocki matematyk John Napier wynalazł narzędzie nazwane Tabliczkami Napiera, które były tablicami mnożeń wyrytymi na pasach z drewna lub z kości. Napier wynalazł również logarytmy, bardzo przydatne przy obliczeniach arytmetycznych. W 1621 angielski matematyk i duchowny William Oughtred użył logarytmów Napiera jako podstawy działania suwaka logarytmicznego

Interesujące jest to, iż po ponad 150 latach od narodzin tej koncepcji zespół naukowców z Londyńskiego Muzeum Nauki w końcu zbudował według oryginalnych planów jedną z pierwszych Maszyn Różnicowych Babbage'a. Ostateczna maszyna, zbudowana z kutego żelaza, brązu i stali, składała się z 4000 komponentów, ważyła trzy tony oraz miała 10 stóp szerokości i 6 wysokości. Urządzenie to wykonało pierwszą serię obliczeń na początku lat 1990 i dało wyniki z dokładnością do 31 cyfr, co daleko wykracza poza dokładność zwykłego, kieszonkowego kalkulatora. Jednakże każde obliczenie wymaga, aby użytkownik kręcił korbą kilkaset razy, czasem nawet kilka tysięcy razy, więc osoba używająca tego urządzenia do czegokolwiek poza podstawowymi obliczeniami, stałaby się najbardziej wysportowanym operatorem komputera na powierzchni naszej planety. Z Babbage'em współpracowała Augusta Ada Lovelace, córka angielskiego poety, Lorda Byrona. Ada, będąc doskonałą matematyczką oraz jedną z niewielu osób w pełni rozumiejących wizję Babbage'a, napisała program dla Maszyny Analitycznej Babbage’a (Maszyna Analityczna miała używać pętli utworzonych z serii kart perforowanych Jacquard'a w celu sterowania automatycznym kalkulatorem, który mógł podejmować decyzje na podstawie wyników poprzednich obliczeń). Gdyby Maszyna Analityczna kiedykolwiek w rzeczywistości działała, program Ady mógłby obliczyć matematyczny ciąg, znany jako liczby Bernoulli'ego. Z uwagi na to dzieło, Ada jest obecnie uważana za pierwszą programistkę komputerów i w roku 1979 jej imieniem został nazwany nowoczesny język programowania - ADA.

1847 do 1854 - George Boole wymyśla Algebrę Boole'a 1857 – Wheatstone używa taśmy papierowej do przechowywania danych Do roku 1858 nadajnik wykorzystujący papierową taśmę Morse'a mógł pracować z szybkością do 100 słów na minutę.

1883 do 1906 - Wynalezienie lampy próżniowej W roku 1879 legendarny amerykański wynalazca Thomas Alva Edison publicznie przedstawił po raz pierwszy swoją jasno świecącą żarówkę elektryczną. roku 1906 amerykański wynalazca, Lee de Forest, wprowadził do lampy próżniowej trzecią elektrodę zwaną siatką. W wyniku powstała trioda, której można było używać zarówno jako wzmacniacza, jak i przełącznika, a de Forest zbudował wiele wczesnych nadajników radiowych wykorzystując właśnie te triody Triody De Foresta zrewolucjonizowały nadawanie audycji radiowych, lecz przeznaczone były do jeszcze wyższych celów, ponieważ ich zdolność do odgrywania roli przełączników miała ogromny wpływ na cyfrowe obliczenia.

1844 – Samuel Morse przesyła informację z Waszyngtonu do Baltimore 1858 – poprowadzono linie telegraficzną przez Ocean Atlantycki 1876 – patent na telefon dla Grahama Bella 1895 – transmisja sygnałów radiowych przez Gugliemo Marconi’ego 1924 – firma Tabulating Machine Company zmienia nazwę na IBM 1927 – pierwsza transmisja obrazu TV 1929 – powstają pierwsze telewizory kolorowe 1938 – William Hewlett i David Packard zakładają firmę HP

Howarda Aikena (IBM ASCC) 1939 do 1944 - Harvard Mark 1 Howarda Aikena (IBM ASCC) Automatyczny, Sterowany Sekwencyjnie Kalkulator IBM (the IBM automatic sequence controlled calculator - ASCC), częściej spotyka się określenie Harvard Mark 1. Mark I został zbudowany z przełączników, przekaźników, obracających się wałków i sprzęgieł, a opisano go, iż wydaje dźwięki jak "cały pokój szydełkujących kobiet". Maszyna zawierała ponad 750000 elementów, miała długość 50 stóp, była wysoka na 8 stóp i ważyła w przybliżeniu 5 ton! Maszyna ta była oparta na liczbach o długości 23 cyfr – kalkulator mógł dodać lub odjąć dwie takie liczby w ciągu trzech dziesiątych sekundy, pomnożyć je w ciągu czterech sekund i podzielić w dziesięć sekund.

1941 - Konrad Zuse i jego Z1, Z3 oraz Z4 Z3 Po zakończeniu II Wojny Światowej odkryto, iż w hitlerowskich Niemczech w roku 1941 ukończono budowę kalkulatora sterowanego programem o nazwie Z3, co oznacza, iż Z3 datuje się przed kalkulatorem Harvard Mark I Howarda Aikena. Z3 był bardzo wyrafinowany jak na swój okres, na przykład używał on do obliczeń systemu dwójkowego i mógł liczyć na liczbach zmiennoprzecinkowych W trakcie nalotu bombowego w 1944 oryginalny Z3 został zniszczony i dlatego nie przetrwał wojny (chociaż po wojnie w latach 1960 zrekonstruowano Z3 dla Deutsches Museum). Natomiast Z4 przetrwał okres wojny i do roku 1950 działał bezbłędnie w jednym z banków w Zurychu. Z3

Dla każdego działa biegły rachmistrz musiał wykonać John Presper Eckert ENIAC - 1946 Electronic Numerical Integrator And Computer John William Mauchly Miał on wysokość 10 stóp, zajmował obszar 1000 stóp kwadratowych podłogi i ważył w przybliżeniu 30 ton, zawierając ponad 70000 oporników, 10000 kondensatorów, 6000 przełączników i 18000 lamp elektronowych. Ostateczna maszyna zużywała 150 kilowatów energii elektrycznej, co wystarczało do oświetlenia małego miasteczka. Komputer ENIAC opracowany został na zlecenie Armii USA, która potrzebowała go do wykonywania żmudnych, tabelarycznych obliczeń dla nowo produkowanych dział. Dla każdego działa biegły rachmistrz musiał wykonać około 47000 rachunków, co zajmowało mu średnio trzy miesiące pracy. Po zastosowaniu ENIAC'a czas ten skrócił się do kilku minut.

Pierwszy Komputer Przechowujący Program - EDVAC 1944 n.e. do 1952 n.e. Pierwszy Komputer Przechowujący Program - EDVAC Electronic Discrete Variable Automatic Computer EDVAC zawierał w przybliżeniu 4000 lamp elektronowych i 10000 diod kryształkowych. Raport z roku 1956 pokazuje, iż bezawaryjny czas pracy komputera EDVAC wynosił około 8 godzin. Inna maszyna, zwana elektronicznym, automatycznym kalkulatorem z pamięcią opóźnioną (Electronic Delay Storage Automatic Calculator - EDSAC), wykonała swoje pierwsze obliczenia na Uniwersytecie Cambridge w Anglii w maju 1949 roku. EDSAC zawierał 3000 lamp elektronowych i używał rtęciowych linii opóźniających jako pamięci. Programy wprowadzano przy pomocy taśmy papierowej a wyniki wyjściowe przekazywane były do dalekopisu

dwa największe wynalazki XX wieku. Tranzystor i później wynaleziony układ scalony muszą być z pewnością zakwalifikowane jako dwa największe wynalazki XX wieku. Pierwszy ostrzowy tranzystor germanowy na stole laboratoryjnym w Bell Laboratories – rok 1947 Pod koniec lat 1950-tych zaczęto produkcję tranzystorów bipolarnych z krzemu zamiast z germanu W roku 1959 szwajcarski fizyk, Jean Hoerni, wynalazł proces planarny, w którym używano optycznych metod litograficznych do dyfuzji bazy do kolektora, a następnie do dyfuzji emitera do bazy. Procesy opracowane przez Hoerni'ego i Noyce'a prowadziły bezpośrednio do nowoczesnych układów scalonych.

który zawierał kilkaset tranzystorów. W lecie roku 1958 Jackowi Kilby'emu, pracującemu dla firmy Texas Instruments, udało się wytworzyć kilka elementów elektronicznych na pojedynczym kawałku półprzewodnika. W roku 1961 firmy Fairchild i Texas Instruments ogłosiły dostępność pierwszych komercyjnych, planarnych układów scalonych zawierających proste funkcje logiczne W roku 1963 firma Fairchild wyprodukowała układ scalony pod nazwą 907, który zawierał dwie bramki logiczne złożone każda z czterech tranzystorów bipolarnych i czterech oporników. W roku 1967 firma Fairchild wprowadziła na rynek układ zwany Micromosaic, który zawierał kilkaset tranzystorów.

Komputer IBM 610 Auto-Point (z roku 1957) został opisany jako "pierwszy komputer osobisty firmy IBM" z uwagi na to, iż był on zaprojektowany do obsługi przez tylko jednego operatora, lecz maszyna ta nie była oparta na koncepcji pamięci programu i kosztowała 55000$! W roku 1973 firma Scelbi Computer Consulting Company przedstawiła komputer oparty o układ 8008 o nazwie Scelbi-8H, który stał się pierwszym na rynku zestawem komputerowym do samodzielnego montażu zawierającym mikroprocesor Scelbi-8H reklamowano w cenie 565 $ i był on wyposażany w pamięć RAM o pojemności 1KB. Styczeń 1975 - system Altair 8800 oparty na nowo wypuszczonym mikroprocesorze 8080, Którego cena spadła do zadziwiająco niskiej kwoty 375$. Chociaż komputer zawierał marne 256 bajtów pamięci RAM i jedynym sposobem programowania było wprowadzanie poleceń z panelu przełączników

W kwietniu 1975 Bill Gates i Paul Allen założyli firmę Microsoft W marcu 1976 dwóch facetów o nazwiskach Steve Woźniak i Steve Jobs (którzy rozgorzeli entuzjazmem do komputera Altair 8800) skończyło pracę nad komputerem domowej roboty opartym o układ 6502, który nazwali Apple 1 (kilka tygodni później w dniu Prima Aprilis utworzyli oni firmę Apple Computer Company). Apple II, który jest przez wielu uważany za pierwszy komputer osobisty będący zarówno dostępny cenowo jak i użyteczny. Apple II, który pojawił się na rynku w kwietniu 1977 roku w cenie 1300$, zawierał 16 KB pamięci ROM, 4 KB RAM, klawiaturę oraz kolorowy monitor

W kwietniu 1977 firma Commodore Business Machines zaprezentowała swój komputer Commodore PET, oparty na mikroprocesorze 6502, zawierający 14 KB pamięci ROM, 4KB pamięci RAM, klawiaturę, monitor oraz pamięć kasetową Dla pierwszych mikrokomputerów nie było prawie wcale żadnych programów (oprócz programów napisanych przez samych użytkowników). Firmowe oprogramowanie zaczęło się pojawiać dopiero pod koniec roku 1978. Prawdopodobnie najbardziej znaczącym narzędziem w tamtych czasach był program arkusza kalkulacyjnego VisiCalc, napisany dla komputera Apple II przez studenta Harvard Business School i który pojawił się w roku 1979. W roku 1981 firma IBM wypuściła swojego pierwszego PC-ta w cenie 1365 $, co dało mocny sygnał całemu światu, iż komputery osobiste tak szybko nie odejdą.

Historia najnowsza 1975 1976

Podstawowe definicje we współczesnej informatyce

Bit – podstawowa jednostka w operacjach, wskazująca na obecnośc (1) Jednostki ilości danych Bit – podstawowa jednostka w operacjach, wskazująca na obecnośc (1) albo brak (0) sygnału Bajt – 23 bitów = 8 bitów (najmniejsza, adresowana jednostka informacji) Kilobajt – 210 bajtów = 1 024 bajty Megabajt – 220 bajtów = 1 048 576 bajty Gigabajt – 230 bajtów = 1 073 741 824 bajty Terabajt - – 240 bajtów = 1 099 511 627 776 bajty Przykład: 700 Mb = 716800 kb = 734003200 bajty Ośmiobitowy bajt po raz pierwszy pojawił się pod koniec 1956 roku, a został rozpowszechniony i uznany jako standard w 1964 r. po tym jak IBM wprowadził System/360.

Dwójkowy system liczbowy to pozycyjny system liczbowy, w którym podstawą pozycji są kolejne potęgi liczby 2. Do zapisu liczb potrzebne są więc tylko dwa znaki: 0 i 1. Powszechnie używany w informatyce. 1x23 + 0x22 + 1x21 + 0x20 = 8+2 = 10. Obliczanie wartości dziesiętnej liczby zapisanej w systemie dwójkowym 43210 11110 = 11110 = 1x24 + 1x23+ 1x22 + 1x21 + 0x20 = 1 x 16 + 1 x 8 + 1 x 4 + 1 x 2 + 0 x 1 = 16 + 8 + 4 + 2 = 30 Ponieważ 0 x 2n =0, oraz 1 x 2n = 2n wystarczy jeśli zsumuje się tylko te potęgi dwójki, przy których współczynnik wynosi 1.

Obliczanie postaci dwójkowej liczby dziesiętnej Dla liczby 1476 będzie to: Liczba Reszta Komentarz 1476 0 1476 = 2x738 + 0 738 0 738 = 2x369 + 0 369 1 369 = 2x184 + 1 184 0 184 = 2x92 + 0 92 0 92 = 2x46 + 0 46 0 46 = 2x23 + 0 23 1 23 = 2x11 + 1 11 1 11 = 2x5 + 1 5 1 5 = 2x2 + 1 2 0 2 = 2x1 + 0 1 1 wynik mniejszy niż 2 - koniec A zatem: 147610 = 101110001002 Przeliczanie systemu dwójkowego na ósemkowy i szesnastkowy nie wymaga szczególnych zabiegów, bowiem w systemie ósemkowym każdą cyfrę opisują 3 bity, natomiast w systemie szesnastkowym 4 bity. Wystarczy podzielić liczbę dwójkową na pola o odpowiedniej szerokości i policzyć wartość każdego z nich; np. 11000101012 = 001 100 010 1012 = 14258

FLOPS (ang. FLoating point Operations Per Second) – Jednostki szybkości komputera FLOPS (ang. FLoating point Operations Per Second) – liczba operacji zmiennoprzecinkowych na sekundę, jednostka wydajności komputerów, a dokładniej wydajności układów realizujących obliczenia zmiennoprzecinkowe. Stosuje się Mflops = milion flops, Gflops = miliard flops, Tflops = bilion flops Najszybszy komputer – stan na koniec 2004 realizuje 42.7 Tflops Kalkulator – około 10 flops MIPS (Milion Instructions Per Second - milion instrukcji na sekundę) – to także jedna z jednostek pomiaru wydajności systemu komputerowego. Frames per second (FPS) - liczba ramek na sekundę miara prędkości wyświetlania ruchomych obrazów

Format i kodowanie danych: Integer – liczby całkowite Floating point – liczby rzeczywiste Character - tekst ASCII (skrót od ang. American Standard Code for Information Interchange) to kod przyporządkowujący liczby z zakresu 0-127 literom (alfabetu angielskiego), cyfrom, znakom przestankowym i innym symbolom, oraz poleceniom sterującym. Przykładowo litera "a" jest zakodowana liczbą 97, a polecenie "powrót karetki" – liczbą 13. ASCII jest kodem 7bitowym System tekstowy – używa kodowania ASCII (lub innego) System binarny – używa kodu binarnego do zapisu danych

Formaty graficzne: Grafika rastrowa (bitmapa)- sposób zapisu obrazów w postaci prostokątnej tablicy wartości, opisujących kolory poszczególnych punktów obrazu (prostokątów składowych). Jakość wynikowego obrazu zależy od ilości prostokątów, na które podzielony jest cały obraz. Grafika wektorowa (obiektowa) - wszelkie obrazy tworzone są za pomocą figur geometrycznych. Jest to grafika generowana w całości komputerowo i nie ma ona bezpośredniego przełożenia na obrazowanie obiektów z natury obraz w tej grafice składa się ze stosu elementów ułożonych w odpowiedniej kolejności ten rodzaj grafiki nadaje się idealnie do tworzenia ilustracji (kopiowanie z natury zdjęć i innych elementów jest domeną grafiki bitmapowej) Grafika wektorowa jest grafiką w pełni skalowalną, co oznacza, iż można obrazy wektorowe powiększać oraz zmieniać ich proporcje bez uszczerbku dla jakości

Formaty graficzne: Grafika rastrowa – formaty stratne: JPEG (Joint Photographic Experts Group) najpopularniejszy format plików graficznych z kompresją stratną TIFF (Tagged Image File Format) - popularny format plików graficznych udostępniający wiele rodzajów kompresji Grafika rastrowa – formaty bezstratne: PNG (Portable Network Graphics) GIF (Graphics Interchange Format) + TIFF Bez kompresji – BMP (BitMap) oraz TIFF Grafika Wektorowa SVG (Scalable Vector Graphics) - format oparty na języku XML; promowany jako standard grafiki wektorowej Macromedia Flash - najpopularniejszy format grafiki wektorowej PS i EPS – PostScript i Encapsulated PS - uniwersalny język opisu strony opracowany przez firmę Adobe Systems Incorporated, będący obecnie standardem w zastosowaniach poligraficznych

Piksel

Każdy piksel opisują 3 cyfry wskazujące na natężenie podstawowych barw. Przyjmują one wartości od 0 do 255 Mamy zatem 256x256x256 = 16777216 barw

Kompresja Kompresja danych - polega na zmianie sposobu zapisu informacji w taki sposób, aby zmniejszyć redundancję i tym samym objętość zbioru, nie zmieniając przenoszonych informacji. Innymi słowy chodzi o wyrażenie tego samego zestawu informacji, lecz za pomocą mniejszej liczby bitów. Działaniem przeciwnym do kompresji jest dekompresja. Kompresja dzieli się na bezstratną - w której z postaci skompresowanej można odzyskać identyczną postać pierwotną, oraz stratną - w której takie odzyskanie jest niemożliwe, jednak główne właściwości które nas interesują zostają zachowane Systemy kompresji stratnej obrazu: JPEG MPEG (ang. Moving Picture Experts Group) - zatwierdzony przez ISO format zapisu danych zawierających obraz i dźwięk. Opracowany dość dawno przez grupę niezależnych ekspertów format używany jest do zapisu filmów VideoCD, DVD i transmisji telewizji cyfrowej (MPEG 2). Systemy kompresji stratnej dźwięku: OGG MP3

Kompresja stratna

Kompresja bezstratna Jestem tu sam Byłem tu sam Będę tu sam Jestem tu [20l]sam[8w] Byłem tu [21l]sam[8w] Będę tu [22l]sam[8w]

Model Shannona Koder Kanał komunikacyjny Dekoder C.E. Shannon, „A Mathematical Theory of Communication”, Bell System Technical Journal, 1948 C.E. Shannon, „Prediction and entropy of printed English”, Bell System Technical Journal, 1951

Co kompresujemy? Mowa (np. w telefonii komórkowej) Muzyka (np. piosenki w formacie MP3) Wideo (np. filmy na DVD) Teksty (np. udostępniane w archiwach takich jak Project Gutenberg) Pliki wykonywalne (np. wersje instalacyjne oprogramowania) Bazy danych

Co może być kanałem komunikacyjnym? Powietrze (łączność bezprzewodowa) Linie telefoniczne Ethernet CD Dyski magnetyczne Pamięć operacyjna Przestrzeń międzyplanetarna