Definicja monitorować

Monitor to termin, który może pochodzić z łaciny lub angielskiego, w obu przypadkach jest napisany tak samo jak w języku hiszpańskim. Jego użycie w naszym języku jest zatem bardzo różnorodne. Z jednej strony może to być osoba, która prowadzi edukację kulturalną lub sportową ; na przykład: "Dziecko jest pobite: proszę wezwać monitor", "Monitor warsztatowy nauczył nas bardzo innowacyjnych technik tworzenia tego rodzaju prac" .

Monitoruj

Inne zastosowania pojęcia związanego z zawodami lub zawodami pozwalają wyznaczyć asystenta nauczycieli wychowania fizycznego, niewolnika, który towarzyszył swojemu mistrzowi jako asystentowi i podwładnemu, który współpracował z rzymskim mówcą na forum.

Monitor to także starożytny okręt wojenny, który płynął prawie zanurzony i miał mały przeciąg. Łodzie te były bardzo popularne aż do 19 wieku, kiedy ich użycie zaczęło spadać.

Wreszcie monitor może być ekranem pozwalającym obserwować parametry pacjenta podłączonego do urządzenia medycznego . Bicie serca może być odzwierciedlone graficznie na monitorze, aby kontrolować częstość akcji serca.

Najczęstszym znaczeniem tego pojęcia jest to, które określa urządzenie zdolne do przesyłania obrazów pobranych z kamery wideo lub z innego źródła . Może to być urządzenie wyjściowe wyświetlające wyniki przetwarzania wykonywane przez komputer .

Ewolucja monitorów w ciągu ostatnich dwóch dekad była znaczna, tak aby zapewnić klarowność obrazu porównywalną z wydrukowaną. Przy klasyfikacji monitorów na kategorie ważne jest rozróżnienie technologii (w jaki sposób są produkowane) od standardów (do czego są przeznaczone).

W odniesieniu do technologii zastosowanej do produkcji monitorów, najbardziej znaną była CRT ( lampa katodowa ), opracowana w 1987 roku i z pewną aktualnością nawet dzisiaj, pomimo pojawienia się LCD, LED i OLED, które oferują znaczną oszczędność energii, klarowność obrazu nieskończenie lepszą i są bardziej wygodne w instalacji i manipulowaniu, ponieważ są znacznie cieńsze i lżejsze.

Zobaczmy krótki przegląd ewolucji jego standardów, a IBM zawsze prowadzi:

Monitoruj * MDA (Monochrome Display Adapter) : to monochromatyczne monitory. Pojawiły się w roku 1981, w tym samym czasie co karta CGA, wyprodukowana przez IBM. Warto wspomnieć, że te ekrany nie pozwalały na reprezentację obrazów, ale że pokazywały wyłącznie tekst, który wspierał pogrubienie, śmiałość i podkreślenie. Co ciekawe, charakterystyczny zielony kolor źródła używał do wywoływania podrażnienia oczu;

* CGA (Color Graphics Adapter) : zaprezentowany na rynku w tym samym roku co MDA, był pierwszym monitorem obsługującym grafikę kolorową . Głównym celem, w przeciwieństwie do pierwszego, było zaoferowanie lepszej gry. Aby wykonać dodatkowe przetwarzanie, ich karty graficzne zawierały 16 KB, cztery razy więcej pamięci niż te używane przez MDA;

* EGA (Enhanced Graphics Adapter) : w 1984 r. IBM wprowadził nowy standard wizualizacji graficznej, nawiązując do "ulepszeń" samej nazwy (termin "ulepszone" oznacza ulepszony). Mieli czterokrotnie więcej pamięci niż CGA i obsługiwali większą gamę kolorów;

* VGA (Video Graphics Array) : jego uruchomienie w 1987 roku oznaczało przed i po, i powoli opuściło swoich poprzedników w niepamięć. Normalne karty VGA miały 256 KB pamięci wideo, a te monitory były w stanie wyświetlić do 256 kolorów z minimalną rozdzielczością (320 x 200 pikseli) lub większą jasność w trybie tekstowym w maksymalnej rozdzielczości (720 x 400), Środek, z popularnym 640 x 480, łączył tekst i grafikę w 16 kolorach;

* SVGA lub Super VGA : zostały wydane w 1989 roku w różnych wersjach w celu przekroczenia możliwych rozdzielczości w VGA (począwszy od 800 x 600). Pierwsze karty graficzne ATI i NVIDIA towarzyszyły narodzinowi standardu, który od kilku lat cieszy się wielkim sukcesem .

Zalecane