Fiszki

Artificial Intelligence_aka_szogun

Test w formie fiszek
Ilość pytań: 50 Rozwiązywany: 737 razy
1. Aglomeracyjne metody klasteryzacji polegają na:
b. przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
d. stopniowym ograniczaniu klastrów poprzez usuwanie outlierów
a. iteracyjnym dzieleniu klastrów na najbardziej odległe połowy
c. krokowym dodawaniu linii dzielących klastry w optymalnym miejscu
b. przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
2. Pojęcie tensora występujące często w dziedzinie uczenia głębokiego oznacza:
a. wyspecjalizowany rodzaj neuronów przetwarzających obraz
b. warstwę wejściową rozprowadzającą sygnały do sieci
d. uogólnienie pojęcia macierzy na wiele wymiarów
c. wektor wskazujący kierunek najszybszego spadku błędu sieci
d. uogólnienie pojęcia macierzy na wiele wymiarów
3. Algorytmy genetyczne (ewolucyjne) służą generalnie do realizacji zadań:
b. eksploracji danych zapisanych w chromosomach roślin i zwierząt
a. regresji
c. poszukiwania reguł asocjacyjnych
d. optymalizacji
d. optymalizacji
4. Wskaż metodę NIEPRZYDATNĄ w rozwiązywaniu zadań predykcyjnych:
d. sieć neuronowa typu PERCEPTRON WIELOWARSTWOWY
a. algorytm k-średnich
b. sieć neuronowa typu RBF
c. liniowa regresja wieloraka
a. algorytm k-średnich
5. Technika k-krotnej walidacji krzyżowej służy do:
c. klasteryzacji zbioru na k maksymalnie odległych skupień
b. uniknięcia tendencyjności w ocenie jakości modelu
d. ustalenia optymalnego momentu przerwania uczenia modelu
a. wyeliminowania wzajemnych zależności między zmiennymi
b. uniknięcia tendencyjności w ocenie jakości modelu
6. Algorytm aglomeracyjny rozpoczyna proces analizy od stanu, w którym:
c. obiekty są losowo przydzielone do skupień, a liczba skupień jest z góry określana
b. wszystkie obiekty tworzą jedno skupenie
d. każdy obiekt tworzy osobne skupienie
a. obiekty podzielone są wstępnie przy użyciu innej metody grupowania
d. każdy obiekt tworzy osobne skupienie
7. Argumentem funkcji aktywacji neuronu typu RBF jest
a. suma sygnałów x1 + x2 + ... wektora wejściowego x
d. odległość wektorów: wejściowego x i wag w
c. ważona liczba wejść danego neuronu
b. iloczyn skalarny wektorów: wejściowego x i wag w
d. odległość wektorów: wejściowego x i wag w
8. W pewnym problemie eksploracji danych zmienna wyjściowa (zależna) przyjmuje 3 możliwe wartości: "biały","czerwony", "niebieski". Dany problem zaliczamy do zadań:
d. regresyjnych (szacowanie, predykcja)
b. klasyfikacji bezwzorcowej (grupowania)
a. klasyfikacji wzorcowej
c. poszukiwania reguł asocjacyjnych
a. klasyfikacji wzorcowej
9. Iloczyn skalarny wektora cech z pewnym wektorem wag można traktować jako formę:
a. obrotu w przestrzeni cech
c. regresji liniowej
d. ekstrakcji cech
b. redukcji wymiarowości
c. regresji liniowej
10. Końcowe trzy etapy eksploracji danych w metodologii CRISP-DM to KOLEJNO:
d. Ewaluacja - Modelowanie - Wdrożenie
c. Modelowanie - Wdrożenie - Ewaluacja
a. Wdrożenie - Ewaluacja - Modelowanie
b. Modelowanie - Ewaluacja - Wdrożenie
b. Modelowanie - Ewaluacja - Wdrożenie
11. Istotną WADĄ sieci neuronowych jako modeli eksploracji danych jest:
c. bardzo długi czas reakcji (odpowiedzi) nauczonej sieci
d. brak zdolności do modelowania zjawisk nieliniowych
a. brak zdolności wyjaśniania (uzasadniania) wygenerowanych odpowiedzi
b. nieparametryczność
a. brak zdolności wyjaśniania (uzasadniania) wygenerowanych odpowiedzi
12. Hiperparametrami modelu nazywa się parametry, które:
b. są dopasowywane podczas uczenia do danych wejściowych
a. opisują wagi połączeń pomiędzy całymi warstwami sieci
d. sterują przebiegiem procesu uczenia modelu
c. mogą zmieniać się w bardzo szerokim zakresie wartości
d. sterują przebiegiem procesu uczenia modelu
13. Metoda wzmacniania gradientowego (gradient boosting) służy do:
b. przyspieszania procesu uczenia głębokich sieci neuronowych
d. generowania dodatkowych sztucznych próbek w zbiorach uczących
a. zwiększania kontrastu pomiędzy blisko leżącymi klastrami
c. budowania mocnego modelu złożonego z wielu słabszych modeli
c. budowania mocnego modelu złożonego z wielu słabszych modeli
14. Aby wyeliminować tzw. efekt przeuczenia sieci neuronowej (uczenie nadzorowane), należy uznać za optymalny (ostateczny) zbiór wartości wag, otrzymany w momencie:
b. zidentyfikowania minimum lokalnego funkcji błędu uczącego
c. minimum błędu dla ciągu uczącego
d. minimum błędu dla ciągu walidacyjnego
a. zakończenia działania algorytmu uczącego
d. minimum błędu dla ciągu walidacyjnego
15. Klasyczny (perceptronowy) model neuronu posiada dwa wejścia o wagach w1=1, w2=2, na które podano odpowiednio sygnały x1=−1, x2=+1. Funkcja aktywacji jest funkcją liniową postaci y=2x. Sygnał wyjściowy neuronu wynosi:
c. -1
d. 0
a. 1
b. 2
b. 2
16. Na etapie wstępnej eksploracyjnej analizy danych najmniej przydatne jest:
b. użycie metod nienadzorowanej klasteryzacji
d. zliczenie wystąpień wartości zmiennych nominalnych
c. wizualne porównanie współzależności par zmiennych
a. wygenerowanie histogramów zmiennych ciągłych
a. wygenerowanie histogramów zmiennych ciągłych
17. Wskaż drugi algorytm (metodę), który służy do rozwiązywania tego samego typu problemów eksploracji danych, co algorytm k-najbliższych sąsiadów:
b. algorytm CART (drzewa klasyfikacyjne i regresyjne)
a. algorytm PCA (analiza głównych składowych)
c. algorytm k-średnich
d. algorytm Kohonena (sieć neuronowa typu SOM)
b. algorytm CART (drzewa klasyfikacyjne i regresyjne)
18. Sieć neuronowa Kohonena (SOM) generalnie jest przeznaczona do realizacji:
d. klasyfikacji bezwzorcowej (grupowania)
b. prognozowania lub szacowania wartości
c. klasyfikacji wzorcowej
a. analizy szeregów czasowych
d. klasyfikacji bezwzorcowej (grupowania)
19. Problem klasyfikacyjny mozna zamienic na problem regresyjny poprzez:
a. zamianę zmiennych kategorycznych na ciągłe
c. prognozowanie stopnia przynależności do klasy
b. zmniejszenie liczby wymiarów do dwóch
d. zredukowanie liczby klas do jednej
a. zamianę zmiennych kategorycznych na ciągłe
20. Poszukiwanie zbiorów częstych jest pierwszym etapem:
d. algorytmu k-najbliższych sąsiadów
c. algorytmu wstecznej propagacji błędów
b. algorytmu k-średnich
a. algorytmu A priori
a. algorytmu A priori

Powiązane tematy

Inne tryby