Architektura Komputerów I Programowanie Niskopoziomowe



Pobieranie 330,54 Kb.
Strona1/5
Data29.10.2017
Rozmiar330,54 Kb.
  1   2   3   4   5

Architektura Komputerów i Programowanie Niskopoziomowe


  1. Historia ewolucji komputerów

    Generacje komputerów:

  • 1 generacja
    1946-1957
    lampa próżniowa
    ok. 40 000 operacji na sekundę



  • 2 generacja
    1958-1964
    tranzystor
    ok. 200 000 operacji na sekundę



  • 3 generacja
    1965-1971
    mała i średnia skala integracji
    ok. 1 000 000 operacji na sekundę



  • 4 generacja
    1972-1977
    wielka skala integracji
    ok. 10 000 000 operacji na sekundę



  • 5 generacja
    1978-…
    bardzo wielka skala integracji
    ok. 100 000 000 operacji na sekundę



ENIAC

ENIAC (ang. Electronic Numerical Integrator And Computer) został ukończony w roku 1946. Był pierwszym na świecie elektronicznym komputerem cyfrowym o ogólnym przeznaczeniu. ENIAC był maszyną raczej dziesiętną niż binarną. Liczby były reprezentowane w formie dziesiętnej i arytmetyka była realizowana w systemie dziesiętnym. Jego pamięć składała się z 20 „akumulatorów”, z których każdy mógł przechowywać 10-cyfrową liczbę dziesiętną. Każda cyfra była reprezentowana przez pierścień złożony z 10 lamp próżniowych. Główną wadą ENIAC-a było to, że musiał on być programowany ręcznie przez ustawianie przełączników oraz wtykanie i wyjmowanie kabli.


Maszyna von Neumanna

W roku 1946 rozpoczęto projektowanie nowego komputera wykorzystującego program przechowywany w pamięci. Miało to miejsce w Princeton Institute for Advanced Studies, a sam komputer określono skrótem IAS. Głównymi jego składnikami są:




  • Pamięć główna, w której są przechowywane zarówno dane jak i rozkazy

  • Jednostka arytmetyczno-logiczna (ALU), mogąca wykonywać działania na danych binarnych

  • Jednostka sterująca, która interpretuje rozkazy z pamięci i powoduje ich wykonanie

  • Urządzenia wejścia-wyjścia, których pracą kieruje jednostka sterująca

Komputer IAS działa przez powtarzalne wykonywanie cyklu rozkazu. Z rzadkimi wyjątkami wszystkie dzisiejsze komputery mają tę samą ogólną strukturę i funkcje, są wobec tego określane jako maszyny von Neumanna.


  1. Pojęcia organizacji i architektury komputerów

    Architektura komputera – opis budowy systemu komputerowego, który odnosi się do atrybutów systemu widzialnych dla programisty takich jak liczba bitów reprezentacji danych, organizacja jednostki arytmetyczno-logicznej, lista rozkazów, metody organizacji pamięci, mechanizmy wejścia-wyjścia.

    Organizacja komputera – opis budowy systemu komputerowego, który odnosi się do atrybutów niewidzialnych dla programisty takich jak rozwiązania sprzętowe wynikające z zastosowanej technologii elektronicznej, sygnały i układy sterujące, interfejsy między komputerem a urządzeniami peryferyjnymi.

    Struktura komputera – opis wzajemnego, hierarchicznego powiązania składników systemu komputerowego.





  2. Podstawowe podzespoły komputera

    Funkcje komputera:



  • przetwarzanie danych

  • przechowywanie danych

  • przenoszenie danych

  • sterowanie


Procesor
– jednostka centralna (CPU) przetwarza dane i steruje działaniem komputera. Składa się m.in. z:

  • Jednostki arytmetyczno-logicznej – realizuje funkcje przetwarzania danych przez komputer (dokonuje obliczeń)

  • Rejestrów podręcznych – przechowują chwilowe dane przetwarzane przez procesor

  • Jednostki sterującej – pobiera i dekoduje rozkaz, generuje odpowiednie sygnały sterujące dla innych elementów procesora

  • Magistral procesora – zapewniają łączność pomiędzy składnikami procesora


Pamięć główna – przechowuje dane i instrukcje

Urządzenia wejścia-wyjścia
– odpowiadają za komunikację komputer – otoczenie

Połączenia systemowe
– (magistrale) – zapewniają łączność pomiędzy poszczególnymi elementami komputera


  1. Pojęcia hardware, firmware i software

    Hardware – zestaw urządzeń elektronicznych do automatycznego przetwarzania informacji. Fizyczne komponenty komputera, elementy peryferyjne i akcesoria.

    Firmware – oprogramowanie układowe, umieszczone przez producenta sprzętu w pamięci ROM, dostarczane razem ze sprzętem i traktowane jako jego element.

    Software – oprogramowanie umieszczane w pamięci komputera w postaci sekwencji rozkazów, wykonywanych przez jednostkę centralną.





  2. Pojęcia mikroprocesor, mikrokontroler, mikrokomputer

    Mikroprocesor – steruje on działaniem komputera i realizuje jego funkcje przetwarzania danych. Układ scalony, którego działanie polega na wykonywaniu instrukcji programów zapisanych w pamięci. Nadzoruje i synchronizuje pracę wszystkich urządzeń w komputerze. Głównymi zespołami procesora są: jednostka arytmetyczno-logiczna ALU, jednostka sterująca, rejestry. Procesory mogą się wyróżniać: architekturą (RISC lub CISC), liczbą bitów przetwarzanych w jednym cyklu, częstotliwość taktowania w MHz.

    Mikrokontroler – jest układem scalonym o bardzo wielkiej skali integracji, w skład którego wchodzi: mikroprocesor, pamięć przechowująca rozkazy dla mikroprocesora, dane oraz wyniki operacji, układy wejścia-wyjścia umożliwiające wprowadzenie do pamięci rozkazów, danych i wyprowadzenie wyników. Mikrokontrolery są kompletnymi, programowalnymi, autonomicznymi układami (do pracy nie są im potrzebne urządzenia zewnętrzne), mogącymi realizować wszystkie operacje składające się na przetwarzanie informacji cyfrowej łącznie z jej wymianą z określonym otoczeniem.

    Mikrokomputer – jednoukładowy komputer, którego wszystkie bloki funkcjonalne (procesor, pamięć, urządzenia wejścia-wyjścia) są umieszczone w jednym układzie scalonym. Mikrokomputery znajdują zastosowanie głównie w komputerach wbudowanych, np. w sterownikach.



  3. Procesory sygnałowe

    Sygnały można podzielić na:



  • Analogowe - są przebiegami konkretnej wielkości fizycznej np. napięcia elektrycznego, ciśnienia, temperatury.

  • Cyfrowe - jeśli użyta do reprezentacji sygnałów wielkość fizyczną odgrywa rolę drugorzędną i kwantuje się ją, to próbki interesującego nas sygnału można zakodować za pomocą ustalonych zestawów symboli. Takie kwantowe i kodowane sygnały nazywają się cyfrowymi.

  • Ciągłe - takie, że ich wartości są istotne dla każdej wartości zmiennej niezależnej z pewnego przedziału np. każdej chwili czasu

  • Dyskretne - jeśli istotne są tylko ich wartości w pewnych (dyskretnych) punktach przestrzeni zmiennej niezależnej np. w wybranych, dyskretnych chwilach czasu. Sygnały dyskretne są opisywane jako ciągi (sekwencje) liczb tzw. próbek sygnału

  • Jednowymiarowe

  • Wielowymiarowe



Sygnał skwantowany

Sygnał skwantowany to taki sygnał, który nie jest rejestrowany dokładnie, lecz rozróżnia się jedynie skończoną liczbę możliwych poziomów (wartości) wielkości fizycznej użytej do reprezentacji sygnału.



Najważniejsze cechy procesorów sygnałowych:

  • Długie formaty danych (np. 16 bitów, 32 bity i więcej)

  • Sprzętowa realizacja mnożenia z możliwością zapisu dokładnego wyniku w tzw. długim akumulatorze

  • Rozdzielanie toru programu od toru danych (architektura harwardzka)

  • Szybkie działanie

  • Niski pobór mocy



Przebieg obróbki sygnału



Stosujemy czujniki do przetworzenia temperatury, ciśnienia, wibracji w odpowiednie sygnały elektryczne. Tak uzyskane sygnały są zazwyczaj analogowe i ciągłe. Z reguły poddawane są na wstępie pewnej filtracji analogowej, ograniczającej jej pasmo (tzw. filtracji anty-aliasingowej) [filtr we], następnie próbkowaniu np. w układzie próbkująco-pamiętającym [S&H] (sample & hdd - próbkuj i trzymaj) i wreszcie przetwarzaniu analogowo-cyfrowemu [A/D] (analog to digital). Teraz następuje proces główny czyli etap cyfrowego przetwarzania sygnału, np. za pomocą procesora sygnałowego [DSP] (digital signal processor). Otrzymane w wyniku sygnał użyteczny podlega przetwarzaniu cyfrowo-analogowemu [D/A] i wygładzeniu w filtrze wyjściowym [filtr wy].


Układy analogowe:

  • Ograniczona dokładność, zależna od precyzji pomiaru wielkości fizycznej zastosowanej reprezentacji sygnału.

  • Zależne w działaniu od temperatury, warunków atmosferycznych, rozrzutu i starzenia się elementów (brak powtarzalności działania układu i różnice w działaniu poszczególnych egzemplarzy).


Układy cyfrowe:

  • Wraz ze wzrostem ilości bitów słowa rośnie dokładność, ale rosną również koszty i maleje szybkość próbkowania.

  • Działają w sposób dokładnie powtarzalny i nie podlegają starzeniu.

  • Brak bezpośredniej zależności od zjawisk fizycznych (realizacja dowolnych algorytmów obliczeniowych).

  • Możliwość zastosowania układów programowalnych (np. procesorów sygnałowych) - możliwość zmiany właściwości układu jedynie przez program, bez modyfikacji sprzętu.


Koncepcja próbkowania

Sygnał ciągły transmitowany za pośrednictwem łącznika, co jakiś czas zamykany jest na moment łącznik, tworzy się krótki impuls o amplitudzie równej wartości sygnału w chwili próbkowania. Odstępy między chwilami próbkowania mogą być równe, np. Ts, wtedy jest to próbkowanie równomierne o okresie Ts albo szybkości fs=1/Ts. Jeśli nie to próbkowanie takie nazywamy próbkowaniem nierównomiernym.




  1   2   3   4   5


©operacji.org 2019
wyślij wiadomość

    Strona główna