AK - zamknięte

 0    276 flashcards    patka1555
print play test yourself
 
Question - Answer -
Cechy architektury CISC: Czy może być wykonana w VLIW?
start learning
FAŁSZ
Cechy architektury CISC: Czy występuje model wymiany danych typu pamięć - pamięć
start learning
PRAWDA
Cechy architektury CISC: Jest mała liczba rozkazów
start learning
FAŁSZ
Cechy architektury RISC Czy występuje model wymiany danych typu rej-rej
start learning
PRAWDA
Cechy architektury RISC Jest mała liczba trybów adresowania
start learning
PRAWDA
Cechy architektury RISC Jest wykonywanych kilka rozkazów w jednym takcie
start learning
FAŁSZ
Cechy architektury RISC Jest wykonywanych kilka rozkazów w jednym takcie (w danej chwili czasu)
start learning
PRAWDA
Cechy architektury RISC Jest wykonywanych kilka instrukcji procesora w jednym rozkazie asemblerowym
start learning
FAŁSZ
Cechy architektury RISC Układ sterowania w postaci logiki szytej
start learning
PRAWDA
Architektura RISC charakteryzuje się: Niedużą liczbą trybów adresowania
start learning
PRAWDA
Architektura RISC charakteryzuje się: Modelem obliczeń pamięć - pamięć
start learning
FAŁSZ
Architektura RISC charakteryzuje się: Wykorzystaniem mikroprogramowalnych układów sterujących
start learning
FAŁSZ
Architektura RISC charakteryzuje się: Niezbyt obszerną listą rozkazów
start learning
PRAWDA
Architektura RISC charakteryzuje się: Intensywnym wykorzystaniem przetwarzania potokowego
start learning
PRAWDA
Okna rejestrów Chronią przez hazardem danych
start learning
FAŁSZ
Okna rejestrów Minimalizują liczbę odwołań do pamięci operacyjnej przy operacjach wywołania procedur
start learning
PRAWDA
Okna rejestrów Są charakterystyczne dla architektury CISC
start learning
FAŁSZ
Okna rejestrów Są zamykane po błędnym przewidywaniu wykonania skoków warunkowych.
start learning
FAŁSZ
Okna rejestrów Są przesuwane przy operacjach wywołania procedur
start learning
PRAWDA
Okna rejestrów Są przesuwane przy wystąpieniu rozkazów rozgałęzień
start learning
FAŁSZ
Okna rejestrów Są otwierane przy występowaniu rozkazów rozgałęzień
start learning
FAŁSZ
Przetwarzanie potokowe: Nie jest realizowane dla operacji zmiennoprzecinkowych
start learning
FAŁSZ
Przetwarzanie potokowe: Nie jest realizowane w procesorach CISC
start learning
FAŁSZ
Przetwarzanie potokowe: Daje przyspieszenie nie większe od liczby segmentów (stopni) jednostki potokowej
start learning
PRAWDA
Przetwarzanie potokowe: W przypadku wystąpienia zależności między danymi wywołuje błąd i przerwanie wewnętrzne.
start learning
FAŁSZ
Przetwarzanie potokowe: Jest realizowane tylko dla operacji zmiennoprzecinkowych
start learning
FAŁSZ
Mechanizmy potokowe stosowane są w celu: Uszeregowania ciągu wykonywanych rozkazów
start learning
FAŁSZ
Mechanizmy potokowe stosowane są w celu: Uzyskania równoległej realizacji rozkazów
start learning
PRAWDA
Mechanizmy potokowe stosowane są w celu: Przyspieszenia realizacji rozkazów
start learning
PRAWDA
Hazard danych: Czasami może być usunięty przez zmianę kolejności wykonania rozkazów
start learning
PRAWDA
Hazard danych: Nie występuje w architekturze superskalarnej
start learning
FAŁSZ
Hazard danych: Jest eliminowany przez zastosowanie specjalnego bitu w kodzie program
start learning
FAŁSZ
Hazard danych: Może wymagać wyczyszczenia potoku i rozpoczęcia nowej (...)
start learning
FAŁSZ
Jak można ominąć hazard danych: Poprzez rozgałęzienia
start learning
FAŁSZ
Jak można ominąć hazard danych: Poprzez rozgałęzienia
start learning
FAŁSZ
Jak można ominąć hazard danych: Przez zamianę rozkazów
start learning
PRAWDA
Dla uniknięcia hazardu danych można: Zastosować uproszczone metody adresacji
start learning
FAŁSZ
Dla uniknięcia hazardu danych można: Wykorzystać szynę zwrotną.
start learning
PRAWDA
Dla uniknięcia hazardu danych można: Zastosować specjalny bit w kodzie rozkazu.
start learning
FAŁSZ
Dla uniknięcia hazardu danych można: Zastosować tablicę historii rozgałęzień.
start learning
FAŁSZ
Dla uniknięcia hazardu danych można: Wstrzymać na 1 takt napełnianie potoku.
start learning
PRAWDA
Mechanizm skoków opóźnionych: Polega na opóźnianiu wykonywania skoku do czasu wykonania rozkazu następnego za skokiem
start learning
PRAWDA
Mechanizm skoków opóźnionych: Wymaga wstrzymania potoku na jeden takt.
start learning
FAŁSZ
Mechanizm skoków opóźnionych: Powoduje błąd na końcu pętli
start learning
FAŁSZ
Mechanizm skoków opóźnionych: Wymaga umieszczenia rozkazu NOP za rozkazem skoku lub reorganizacje programu
start learning
PRAWDA
Tablica historii rozgałęzień: Zawiera m.in. adresy rozkazów rozgałęzień
start learning
PRAWDA
Tablica historii rozgałęzień: Pozwala zminimalizować liczbę błędnych przewidywań rozgałęzień w zagnieżdżonej pętli
start learning
PRAWDA
Tablica historii rozgałęzień: Nie może być stosowana w procesorach CISC
start learning
FAŁSZ
Tablica historii rozgałęzień: Jest obsługiwana przez jądro systemu operacyjnego
start learning
FAŁSZ
Tablica historii rozgałęzień: Jest stosowana do statycznego przewidywania rozgałęzień.
start learning
FAŁSZ
Tablica historii rozgałęzień: Pozwala zapamiętać całą historię wykonań każdego rozkazu rozgałęzienia.
start learning
FAŁSZ
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Skok opóźniony
start learning
FAŁSZ
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Przewidywanie, że rozgałęzienie (skok warunkowy) zawsze nastąpi
start learning
FAŁSZ
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Przewidywanie, że rozgałęzienie nigdy nie nastąpi
start learning
FAŁSZ
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Przewidywanie, że kolejne wykonanie rozkazu rozgałęzienia będzie przebiegało tak samo jak poprzednie
start learning
PRAWDA
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Wstrzymanie napełniania potoku
start learning
FAŁSZ
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Zapewnienia spójności pamięci podręcznej
start learning
FAŁSZ
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Tablicy historii rozgałęzień
start learning
PRAWDA
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Techniki wyprzedzającego pobrania argumentu
start learning
FAŁSZ
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Wystawienia do programu rozkazów typu „nic nie rób”
start learning
PRAWDA
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Protokołu MESI
start learning
FAŁSZ
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Wykorzystania techniki skoków opóźniających
start learning
PRAWDA
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Technologii MMX
start learning
FAŁSZ
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Wstrzymanie realizowanego wątku i przejście do realizacji innego wątku
start learning
FAŁASZ
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Konieczność wyczyszczenia kolejki rozkazów do potoku
start learning
PRAWDA
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Konieczność wyczyszczenia tablicy historii rozgałęzień.
start learning
FAŁASZ
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Przerwanie realizowanego procesu / wątku i sygnalizacja wyjątku
start learning
FAŁASZ
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Konieczność przemianowania rejestrów w procesorach
start learning
FAŁASZ
W procesorach superskalarnych: Liczba rozkazów, które procesor może wykonać w 1 takcie zależy od liczby jednostek potokowych w procesorze
start learning
PRAWDA
W procesorach superskalarnych: Liczba rozkazów, które procesor może wykonać w jednym takcie, zależy od liczby stopni potoku.
start learning
FAŁSZ
W procesorach superskalarnych: Liczba rozkazów pobieranych z pamięci, w każdym takcie musi przekraczać liczbę jednostek potokowych
start learning
FAŁSZ
W procesorach superskalarnych: Liczba rozkazów, które procesor może wykonać w taktach zależy od liczby jednostek potokowych w procesorze
start learning
PRAWDA
W procesorach superskalarnych: Jest możliwe równoległe wykonywanie kilku rozkazów w jednym procesorze (rdzeniu)
start learning
PRAWDA
W procesorach superskalarnych: Rozszerzenia architektury wykorzystujące model SIMD umożliwiają wykonanie rozkazów wektorowych
start learning
PRAWDA
W procesorach superskalarnych: Nie występuje prawdziwa zależność danych
start learning
FAŁSZ
W procesorach superskalarnych: Mogą wystąpić nowe formy hazardu danych: zależności wyjściowe między rozkazami oraz antyzależności
start learning
PRAWDA
W procesorach superskalarnych: Nie występuje hazard danych (problemy z potokowym wykonaniem rozkazów o zależnych argumentach).
start learning
FAŁSZ
W procesorach superskalarnych: Hazard sterowania jest całkowicie eliminowany przez statyczne strategie przewidywania rozgałęzień.
start learning
FAŁSZ
Architektura superskalarna: Dotyczy systemów SMP
start learning
FAŁSZ
Architektura superskalarna: Wymaga zastosowania protokołu MESI
start learning
FAŁSZ
Architektura superskalarna: Umożliwia równoległe wykonywanie kilku rozkazów w jednym procesorze
start learning
PRAWDA
Architektura superskalarna: Wywodzi się z architektury VLIW
start learning
FAŁSZ
Architektura superskalarna: Wykorzystuje wiele potokowych jednostek funkcjonalnych
start learning
PRAWDA
Architektura superskalarna: Nie dopuszcza do wystąpienia hazardu sterowania
start learning
FAŁSZ
Architektura superskalarna: Umożliwia wykonanie wielu rozkazów w jednym takcie
start learning
PRAWDA
Architektura superskalarna: Wykorzystuje model obliczeń pamięć - pamięć
start learning
FAŁSZ
Architektura superskalarna: Jest stosowana tylko w procesorach wielordzeniowych
start learning
FAŁSZ
Przetwarzanie wielowątkowe: Zapewnia lepsze wykorzystanie potoków
start learning
PRAWDA
Przetwarzanie wielowątkowe: Minimalizuje straty wynikające z chybionych odwołań do pamięci podręcznej
start learning
PRAWDA
Przetwarzanie wielowątkowe: Wymaga zwielokrotnienia zasobów procesora (rejestry, liczniki rozkazów, itp.)
start learning
PRAWDA
Przetwarzanie wielowątkowe: Nie może być stosowane w przypadku hazardu danych
start learning
FAŁSZ
Pojęcie równoległości na poziomie rozkazów: Dotyczy architektury MIMD
start learning
FAŁSZ
Pojęcie równoległości na poziomie rozkazów: Odnosi się m.in. do przetwarzania potokowego
start learning
PRAWDA
Pojęcie równoległości na poziomie rozkazów: Dotyczy architektury MPP
start learning
FAŁSZ
Pojęcie równoległości na poziomie rozkazów: Dotyczy m.in. architektury superskalarnej
start learning
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Komputery wektorowe
start learning
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Komputery macierzowe
start learning
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Klastry
start learning
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Procesory graficzne
start learning
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Rozszerzenia SIMD procesorów superskalarnych
start learning
PRAWDA
Wielowątkowość współbieżna w procesorze wielopotokowym zapewnia: Możliwość wprowadzenia rozkazów różnych wątków do wielu potoków
start learning
PRAWDA
Wielowątkowość współbieżna w procesorze wielopotokowym zapewnia: Realizację każdego z wątków do momentu wstrzymania któregoś rozkazu z danego wątku
start learning
PRAWDA
Wielowątkowość współbieżna w procesorze wielopotokowym zapewnia: Przełączanie wątków co takt
start learning
FAŁSZ
Wielowątkowość współbieżna w procesorze wielopotokowym zapewnia: Automatyczne przemianowanie rejestrów
start learning
FAŁSZ
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Błędnego przewidywania rozgałęzień
start learning
FAŁSZ
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Chybionego odwołania do pamięci podręcznej
start learning
FAŁSZ
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Prawdziwej zależności danych
start learning
FAŁSZ
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Zależności wyjściowej między rozkazami.
start learning
PRAWDA
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Antyzależności między rozkazami
start learning
PRAWDA
Wyprzedzające pobranie argumentu pozwala rozwiązać konflikt wynikający z: Zależności wyjściowej miedzy rozkazami
start learning
FAŁSZ
Wyprzedzające pobranie argumentu pozwala rozwiązać konflikt wynikający z: Prawdziwej zależności danych
start learning
PRAWDA
Wyprzedzające pobranie argumentu pozwala rozwiązać konflikt wynikający z: Błędnego przewidywania rozgałęzień
start learning
FAŁSZ
Wyprzedzające pobranie argumentu pozwala rozwiązać konflikt wynikający z: Antyzależności miedzy rozkazami
start learning
PRAWDA
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: GFLOPS
start learning
PRAWDA
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: Liczbie instrukcji wykonywanych na sekundę
start learning
FAŁSZ
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: Liczbie operacji zmiennoprzecinkowych na sekundę
start learning
PRAWDA
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: Mb/sek
start learning
FAŁSZ
Podstawą klasyfikacji Flynna jest: Liczba jednostek przetwarzających i sterujących w systemach komputerowych
start learning
FAŁSZ
Podstawą klasyfikacji Flynna jest: Protokół dostępu do pamięci operacyjnej
start learning
FAŁSZ
Podstawą klasyfikacji Flynna jest: Liczba modułów pamięci operacyjnej w systemach komputerowych
start learning
FAŁSZ
Podstawą klasyfikacji Flynna jest: Sposób połączenia jednostek przetwarzających z modułami pamięci operacyjnej.
start learning
FAŁSZ
Podstawą klasyfikacji Flynna jest: Liczba strumieni rozkazów i danych w systemach komputerowych
start learning
PRAWDA
Model SIMD: Był wykorzystywany tylko w procesorach macierzowych
start learning
FAŁSZ
Model SIMD: Jest wykorzystywany w multimedialnych rozszerzeniach współczesnych procesorów
start learning
PRAWDA
Model SIMD: Jest wykorzystywany w heterogenicznej architekturze PowerXCell
start learning
PRAWDA
Model SIMD: Zapewnia wykonanie tej samej operacji na wektorach argumentów
start learning
PRAWDA
Model SIMD: Jest podstawą rozkazów wektorowych
start learning
PRAWDA
Model SIMD: Jest podstawą architektury procesorów superskalarnych
start learning
FAŁSZ
Komputery wektorowe: Posiadają jednostki potokowe o budowie wektorowej
start learning
FAŁSZ
Komputery wektorowe: Posiadają w liście rozkazów m.in. rozkazy operujące na wektorach danych
start learning
PRAWDA
Komputery wektorowe: Wykorzystują od kilku do kilkunastu potokowych jednostek arytmetycznych
start learning
PRAWDA
Komputery wektorowe: Posiadają listę rozkazów operujących wyłącznie na wektorach
start learning
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Zależy od liczby stopni potoku.
start learning
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Jest odwrotnie proporcjonalna do długości taktu zegarowego
start learning
PRAWDA
Moc obliczeniowa komputerów wektorowych: Jest wprost proporcjonalna do długości taktu zegarowego
start learning
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Zależy odwrotnie proporcjonalnie od liczby jednostek potokowych połączonych łańcuchowo.
start learning
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Zmierza asymptotycznie do wartości maksymalnej wraz ze wzrostem długości wektora
start learning
PRAWDA
Moc obliczeniowa komputerów wektorowych: Nie zależy od długości wektora
start learning
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Zależy liniowo od długości wektora
start learning
FAŁSZ
Procesory wektorowe: Mogą być stosowane w systemach wieloprocesorowych
start learning
PRAWDA
Procesory wektorowe: Mają listę rozkazów operującą jedynie na wektorach
start learning
FAŁSZ
Procesory wektorowe: Mają moc kilka razy większą od procesorów skalarnych
start learning
PRAWDA
Komputery macierzowe: Mają w liście rozkazów m.in. rozkazy operujące na wektorach danych
start learning
PRAWDA
Komputery macierzowe: Mają macierzowe potokowe układy arytmetyczne
start learning
FAŁSZ
Komputery macierzowe: Mają w typowych rozwiązaniach zestaw pełnych procesów połączonych siecią połącze
start learning
FAŁSZ
Komputery macierzowe: Wykonują synchroniczną operację wektorową w sieci elementów przetwarzającycH
start learning
PRAWDA
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Macierzy elementów przetwarzających
start learning
PRAWDA
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Zestawu procesorów superskalarnych
start learning
FAŁSZ
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Technologii MMX
start learning
PRAWDA
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Sieci połączeń typu krata
start learning
FAŁSZ
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Potokowych jednostek arytmetycznych
start learning
PRAWDA
Rozkazy wektorowe: Nie mogą być wykonywane bez użycia potokowych jednostek arytmetycznych
start learning
FAŁSZ
Rozkazy wektorowe: Są charakterystyczne dla architektury SIMD
start learning
PRAWDA
Rozkazy wektorowe: Są rozkazami dwuargumentowymi i w wyniku zawsze dają wektor
start learning
FAŁSZ
Rozkazy wektorowe: W komputerach wektorowych ich czas wykonania jest wprost proporcjonalny do długości wektora
start learning
PRAWDA
Rozkazy wektorowe: W komputerach wektorowych ich czas wykonania jest liniowo zależny od długości wektora
start learning
FAŁSZ
Rozkazy wektorowe: W komputerach macierzowych ich czas wykonania jest wprost proporcjonalny do liczby elementów przetwarzających
start learning
FAŁSZ
Rozkazy wektorowe: Mogą być wykonane na sieci elementów przetwarzających.
start learning
PRAWDA
Architektura CUDA: Umożliwia bardzo wydajne wykonywanie operacji graficznych
start learning
PRAWDA
Architektura CUDA: Stanowi uniwersalną architekturę obliczeniowa połączoną z równoległym modelem programistycznym
start learning
PRAWDA
Architektura CUDA: Realizuje model obliczeniowy SIMT
start learning
PRAWDA
Architektura CUDA: Jest podstawą budowy samodzielnych, bardzo wydajnych komputerów
start learning
FAŁSZ
Systemy SMP: Wykorzystują protokół MESI do sterowania dostępem do wspólnej magistrali
start learning
FAŁSZ
Systemy SMP: Posiadają skalowalne procesory
start learning
FAŁSZ
Systemy SMP: Posiadają pamięć fizycznie rozproszoną, ale logicznie wspólną
start learning
FAŁSZ
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Zapewniają spójność pamięci podręcznych wszystkich procesorów
start learning
PRAWDA
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Mają niską skalowalność
start learning
PRAWDA
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Wykorzystują katalog do utrzymania spójności pamięci.
start learning
PRAWDA
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Wykorzystują przesył komunikatów między procesorami.
start learning
FAŁSZ
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Umożliwiają dostęp do pamięci najczęściej poprzez wspólną magistralę lub przełącznicę krzyżową.
start learning
PRAWDA
Protokół MESI: Jest wykorzystywany do sterowania dostępem do magistrali w systemie SMP
start learning
FAŁSZ
Protokół MESI: Zapewnia spójność pamięci cache w systemie SMP
start learning
PRAWDA
Protokół MESI: Służy do wymiany komunikatów w systemie MPP
start learning
FAŁSZ
Protokół MESI: Chroni przed hazardem w procesorach superskalarnych
start learning
FAŁSZ
W architekturze NUMA: Dane są wymieniane między węzłami w postaci linii pamięci podręcznej (PaP)
start learning
PRAWDA
W architekturze NUMA: Spójność PaP węzłów jest utrzymywana za pomocą protokołu MESI
start learning
FAŁSZ
W architekturze NUMA: Czas dostępu do pamięci lokalnej w węźle jest podobny do czasu dostępu do pamięci nielokalnej
start learning
FAŁSZ
W architekturze NUMA: Czas zapisu danych do pamięci nielokalnej może być znacznie dłuższy od czasu odczytu z tej pamięci
start learning
PRAWDA
W architekturze NUMA: Każdy procesor ma dostęp do pamięci operacyjnej każdego węzła
start learning
PRAWDA
W architekturze NUMA: Procesy komunikują się poprzez przesył komunikatów
start learning
FAŁSZ
W architekturze NUMA: Pamięć operacyjna jest rozproszona fizycznie pomiędzy węzłami, ale wspólna logicznie
start learning
PRAWDA
W architekturze CC-NUMA: Każdy procesor ma dostęp do pamięci operacyjnej każdego węzła
start learning
PRAWDA
W architekturze CC-NUMA: Spójność pamięci pomiędzy węzłami jest utrzymywana za pomocą protokołu MESI
start learning
FAŁSZ
W architekturze CC-NUMA: Dane są wymieniane między węzłami w postaci linii pamięci podręcznej
start learning
PRAWDA
W architekturze CC-NUMA: Pamięć operacyjna jest fizycznie rozproszona pomiędzy węzłami, ale wspólna logicznie
start learning
PRAWDA
W systemach wieloprocesorowych o architekturze CC-NUMA: Spójność pamięci wszystkich węzłów jest utrzymywana za pomocą katalogu
start learning
PRAWDA
W systemach wieloprocesorowych o architekturze CC-NUMA: Pamięć operacyjna jest rozproszona fizycznie pomiędzy węzłami, ale wspólna logicznie
start learning
PRAWDA
W systemach wieloprocesorowych o architekturze CC-NUMA: Każdy procesor ma bezpośredni dostęp do pamięci operacyjnej każdego węzła
start learning
FAŁSZ
W systemach wieloprocesorowych o architekturze CC-NUMA: Dane są wymieniane między węzłami w postaci linii pamięci podręcznej
start learning
PRAWDA
W architekturze CC-NUMA czas dostępu do pamięci operacyjnej może zależeć od: Rodzaju dostępu (odczyt - zapis)
start learning
PRAWDA
W architekturze CC-NUMA czas dostępu do pamięci operacyjnej może zależeć od: Stanu linii (zapisanego w katalogu), do której następuje odwołanie
start learning
FAŁSZ
W architekturze CC-NUMA czas dostępu do pamięci operacyjnej może zależeć od: Położenia komórki, do której odwołuje się rozkaz (lokalna pamięć węzła – pamięć innego węzła)
start learning
PRAWDA
W architekturze CC-NUMA czas dostępu do pamięci operacyjnej może zależeć od: Odległości węzłów, zaangażowanych w wykonanie rozkazu, w strukturze sieci łączącej
start learning
FAŁSZ
Katalog może być stosowany do: Utrzymania spójności pamięci podręcznych poziomu L1 i L2 w procesorach wielordzeniowych
start learning
FAŁSZ
Katalog może być stosowany do: Utrzymania spójności pamięci wszystkich węzłów w systemach CC-NUMA
start learning
PRAWDA
Katalog może być stosowany do: Sterowania realizacją wątków w architekturze CUDA
start learning
FAŁSZ
Spójność pamięci podręcznych w procesorze wielordzeniowym może być m.in. zapewniona za pomocą: Przełącznicy krzyżowej
start learning
FAŁSZ
Spójność pamięci podręcznych w procesorze wielordzeniowym może być m.in. zapewniona za pomocą: Katalogu
start learning
PRAWDA
Spójność pamięci podręcznych w procesorze wielordzeniowym może być m.in. zapewniona za pomocą: Protokołu MESI
start learning
PRAWDA
Spójność pamięci podręcznych w procesorze wielordzeniowym może być m.in. zapewniona za pomocą: Wspólnej magistrali
start learning
FAŁSZ
Systemy wieloprocesorowe z pamięcią wspólną: Zapewniają jednorodny dostęp do pamięci
start learning
FAŁSZ
Systemy wieloprocesorowe z pamięcią wspólną: Mogą wykorzystywać procesory CISC
start learning
PRAWDA
Systemy wieloprocesorowe z pamięcią wspólną: Są wykorzystywane w klastrach
start learning
PRAWDA
Systemy wieloprocesorowe z pamięcią wspólną: Wykorzystują przesył komunikatów między procesorami
start learning
FAŁSZ
Systemy wieloprocesorowe z pamięcią wspólną: Wykorzystują katalog do utrzymania spójności pamięci podręcznych
start learning
PRAWDA
W systemach wieloprocesorowych katalog służy do: Śledzenia adresów w protokole MESI
start learning
FAŁSZ
W systemach wieloprocesorowych katalog służy do: Sterowania przesyłem komunikatów
start learning
FAŁSZ
W systemach wieloprocesorowych katalog służy do: Utrzymania spójności pamięci w systemach o niejednorodnym dostępie do pamięci
start learning
PRAWDA
W systemach wieloprocesorowych katalog służy do: Realizacji dostępu do nielokalnych pamięci w systemach NUMA
start learning
PRAWDA
Charakterystyczne cechy architektury MPP: Spójność pamięci podręcznej wszystkich węzłów
start learning
FAŁSZ
Charakterystyczne cechy architektury MPP: Fizycznie rozproszona PaO
start learning
PRAWDA
Charakterystyczne cechy architektury MPP: Fizycznie rozproszona PaO, ale logicznie wspólna
start learning
FAŁSZ
Charakterystyczne cechy architektury MPP: Przesył komunikatów między procesorami
start learning
PRAWDA
Charakterystyczne cechy architektury MPP: Niska skalowalność
start learning
FAŁSZ
Charakterystyczne cechy architektury MPP: Jednorodny dostęp do pamięci wszystkich węzłów
start learning
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Wyróżniają się bardzo dużą skalowalnością
start learning
PRAWDA
Systemy pamięcią rozproszoną (MPP): Są budowane z węzłów, którymi są klastry
start learning
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Realizują synchronicznie jeden wspólny program
start learning
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Wymagają zapewnienia spójności pamięci podręcznych pomiędzy węzłami
start learning
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Wymianę danych i synchronizację procesów w węzłach realizują poprzez przesył komunikatów.
start learning
PRAWDA
Systemy pamięcią rozproszoną (MPP): W większości przypadków wykorzystują nietypowe, firmowe rozwiązania sieci łączących węzły systemu.
start learning
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Wykorzystują katalog do utrzymania spójności pamięci węzłów systemu.
start learning
FAŁSZ
Systemy pamięcią rozproszoną (MPP): W roli węzłów mogą wykorzystywać systemy SMP.
start learning
PRAWDA
Systemy MPP są zbudowane z węzłów którymi mogą być: Systemy SMP
start learning
PRAWDA
Systemy MPP są zbudowane z węzłów którymi mogą być: Klastry
start learning
FAŁSZ
Systemy MPP są zbudowane z węzłów którymi mogą być: Konstelacje
start learning
FAŁSZ
Systemy MPP są zbudowane z węzłów którymi mogą być: Systemy NUMA
start learning
PRAWDA
Systemy MPP są zbudowane z węzłów którymi mogą być: Procesory
start learning
PRAWDA
Przesył komunikatów: Ma miejsce w systemach MPP
start learning
PRAWDA
Przesył komunikatów: W systemach MPP II-giej generacji angażuje wszystkie procesory na drodze przesyłu
start learning
FAŁSZ
Przesył komunikatów: Ma miejsce w klastrach
start learning
PRAWDA
Cechami wyróżniającymi klastry są: Niezależność programowa każdego węzła
start learning
PRAWDA
Cechami wyróżniającymi klastry są: Fizycznie rozproszona, ale logicznie wspólna pamięć operacyjna
start learning
FAŁSZ
Cechami wyróżniającymi klastry są: Nieduża skalowalność
start learning
FAŁSZ
Cechami wyróżniającymi klastry są: Na ogół duża niezawodność Tak, po to się je buduje i na ogół
start learning
PRAWDA
Klastry: Mają średnią skalowalność
start learning
FAŁSZ
Klastry: Wykorzystują model wspólnej pamięci
start learning
FAŁSZ
Klastry: W węzłach mogą wykorzystywać systemy SMP
start learning
PRAWDA
Klastry: Do komunikacji między procesami wykorzystują przesył komunikatów
start learning
PRAWDA
Klastry: Wykorzystują przełącznicę krzyżową jako sieć łączącą węzły
start learning
FAŁSZ
Klastry: W każdym węźle posiadają pełną instalację systemu operacyjnego
start learning
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Mechanizm mirroringu dysków
start learning
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Dostęp każdego węzła do wspólnych zasobów (pamięci zewnętrznych)
start learning
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Redundancja węzłów
start learning
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Mechanizm ”heartbeat”
start learning
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Zastosowanie procesorów wielordzeniowych w węzłach
start learning
FAŁSZ
Dla sieci systemowych (SAN) są charakterystyczne Przesył komunikatów w trybie zdalnego DMA
start learning
PRAWDA
Dla sieci systemowych (SAN) są charakterystyczne Bardzo małe czasy opóźnień
start learning
PRAWDA
Dla sieci systemowych (SAN) są charakterystyczne Topologia typu hipersześcian
start learning
FAŁSZ
Dla sieci systemowych (SAN) są charakterystyczne Niska przepustowość
start learning
FAŁSZ
Sieci systemowe (SAN) Wymagają protokołu MESI
start learning
FAŁSZ
Sieci systemowe (SAN) Wykorzystują przełączniki łączone wg topologii grubego drzewa
start learning
PRAWDA
Sieci systemowe (SAN) Realizują przesyły bloków danych bezpośrednio między pamięciami operacyjnymi węzłów sieci
start learning
PRAWDA
Sieci systemowe (SAN) Są stosowane w klastrach
start learning
PRAWDA
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: Systemy ściśle połączone, systemy ze wspólną pamięcią, systemy SMP
start learning
FAŁSZ
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: Systemy ze wspólną magistralą, systemy wielomagistralowe, systemy z przełącznicą krzyżową
start learning
PRAWDA
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: Systemy SMP, systemy z pamięcią wieloportową, systemy z przełącznicą krzyżową
start learning
FAŁSZ
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: NUMA, MPP, SMP
start learning
FAŁSZ
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: Systemy z pamięcią wspólną, systemy o niejednorodnym dostępie do pamięci, z pamięcią rozproszoną
start learning
PRAWDA
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: SMP, NUMA, klastry, UMA
start learning
FAŁSZ
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: Systemy symetryczne, o niejednorodnym dostępie do pamięci, systemy z przesyłem komunikatów
start learning
PRAWDA
Sprzętowe przełączenie wątków może być wynikiem: Chybienia przy odwołaniu do pamięci podręcznej.
start learning
PRAWDA
Sprzętowe przełączenie wątków może być wynikiem: Upływu zadanego czasu (np. taktu)
start learning
PRAWDA
Sprzętowe przełączenie wątków może być wynikiem: Wystąpienia rozkazu rozgałęzienia
start learning
FAŁSZ
Sprzętowe przełączenie wątków może być wynikiem: Błędnego przewidywania rozgałęzień
start learning
PRAWDA
Sprzętowe przełączenie wątków może być wynikiem: Przesunięcia okien rejestrów
start learning
FAŁSZ
Sprzętowe sterowanie wielowątkowością: Zapewnia lepsze wykorzystanie potoków.
start learning
PRAWDA
Sprzętowe sterowanie wielowątkowością: Wymaga zwielokrotnienia zasobów procesora (rejestry, liczniki rozkazów i inne)
start learning
PRAWDA
Sprzętowe sterowanie wielowątkowością: Nie może być stosowane w przypadku hazardu sterowania
start learning
FAŁSZ
Sprzętowe sterowanie wielowątkowością: M.in. minimalizują straty wynikające z chybionych odwołań do pamięci podrecznej
start learning
PRAWDA
Dostęp każdego procesora do wspólnej pamięci operacyjnej jest realizowany w systemach: NUMA
start learning
PRAWDA
Dostęp każdego procesora do wspólnej pamięci operacyjnej jest realizowany w systemach: SMP
start learning
PRAWDA
Dostęp każdego procesora do wspólnej pamięci operacyjnej jest realizowany w systemach: Klaster
start learning
FAŁSZ
Dostęp każdego procesora do wspólnej pamięci operacyjnej jest realizowany w systemach: MPP
start learning
FAŁSZ
Procesory wielordzeniowe: Są niezbędne do realizacji rozkazów wektorowych.
start learning
FAŁSZ
Procesory wielordzeniowe: Są niezbędne do współbieżnego przetwarzania wątkowego.
start learning
PRAWDA

You must sign in to write a comment