Formularz kontaktowy
Memorizer+

Wykup dostęp

Ta funkcja jest dostępna dla użytkowników, którzy wykupili plan Memorizer+

Fiszki

Egzamin uek 2022 PSI

Test w formie fiszek
Ilość pytań: 37 Rozwiązywany: 1272 razy
Aby wyeliminować tzw. efekt przeuczenia sieci neuronowej (uczenie nadzorowane), należy uznać za optymalny (ostateczny) zbiór wartości wag, otrzymany w momencie:
minimum błędu dla ciągu uczącego
minimum błędu dla ciągu walidacyjnego
zakończenia działania algorytmu uczącego
zidentyfikowania minimum lokalnego funkcji błędu uczącego
minimum błędu dla ciągu walidacyjnego
Aby wyeliminować tzw. efekt przeuczenia sieci neuronowej (uczenie nadzorowane), należy uznać za optymalny (ostateczny) zbiór wartości wag, otrzymany w momencie:
minimum błędu dla ciągu uczącego
minimum błędu dla ciągu walidacyjnego
zakończenia działania algorytmu uczącego
zidentyfikowania minimum lokalnego funkcji błędu uczącego
Metoda wzmacniania gradientowego (gradient boosting) służy do:
zwiększania kontrastu pomiędzy blisko leżącymi klastrami
budowania mocnego modelu złożonego z wielu słabszych modeli
przyspieszania procesu uczenia głębokich sieci neuronowych
generowania dodatkowych sztucznych próbek w zbiorach uczących
budowania mocnego modelu złożonego z wielu słabszych modeli
Metoda wzmacniania gradientowego (gradient boosting) służy do:
zwiększania kontrastu pomiędzy blisko leżącymi klastrami
budowania mocnego modelu złożonego z wielu słabszych modeli
przyspieszania procesu uczenia głębokich sieci neuronowych
generowania dodatkowych sztucznych próbek w zbiorach uczących
Hiperparametrami modelu nazywa się parametry, które:
opisują wagi połączeń pomiędzy całymi warstwami sieci
są dopasowywane podczas uczenia do danych wejściowych
mogą zmieniać się w bardzo szerokim zakresie wartości
sterują przebiegiem procesu uczenia modelu
sterują przebiegiem procesu uczenia modelu
Hiperparametrami modelu nazywa się parametry, które:
opisują wagi połączeń pomiędzy całymi warstwami sieci
są dopasowywane podczas uczenia do danych wejściowych
mogą zmieniać się w bardzo szerokim zakresie wartości
sterują przebiegiem procesu uczenia modelu
Istotną WADĄ sieci neuronowych jako modeli eksploracji danych jest:
nieparametryczność
brak zdolności do modelowania zjawisk nieliniowych
brak zdolności wyjaśniania (uzasadniania) wygenerowanych odpowiedzi
bardzo długi czas reakcji (odpowiedzi) nauczonej sieci
brak zdolności wyjaśniania (uzasadniania) wygenerowanych odpowiedzi
Istotną WADĄ sieci neuronowych jako modeli eksploracji danych jest:
nieparametryczność
brak zdolności do modelowania zjawisk nieliniowych
brak zdolności wyjaśniania (uzasadniania) wygenerowanych odpowiedzi
bardzo długi czas reakcji (odpowiedzi) nauczonej sieci
Końcowe trzy etapy eksploracji danych w metodologii CRISP-DM to KOLEJNO:
Modelowanie - Ewaluacja - Wdrożenie
Wdrożenie - Ewaluacja - Modelowanie
Ewaluacja - Modelowanie - Wdrożenie
Modelowanie - Wdrożenie - Ewaluacja
Modelowanie - Ewaluacja - Wdrożenie
Końcowe trzy etapy eksploracji danych w metodologii CRISP-DM to KOLEJNO:
Modelowanie - Ewaluacja - Wdrożenie
Wdrożenie - Ewaluacja - Modelowanie
Ewaluacja - Modelowanie - Wdrożenie
Modelowanie - Wdrożenie - Ewaluacja
Iloczyn skalarny wektora cech z pewnym wektorem wag można traktować jako formę:
obrotu w przestrzeni cech
ekstrakcji cech
redukcji wymiarowości
regresji liniowej
regresji liniowej
Iloczyn skalarny wektora cech z pewnym wektorem wag można traktować jako formę:
obrotu w przestrzeni cech
ekstrakcji cech
redukcji wymiarowości
regresji liniowej
W pewnym problemie eksploracji danych zmienna wyjściowa (zależna) przyjmuje 3 możliwe wartości: "biały","czerwony", "niebieski". Dany problem zaliczamy do zadań:
klasyfikacji bezwzorcowej (grupowania)
regresyjnych (szacowanie, predykcja)
klasyfikacji wzorcowej
poszukiwania reguł asocjacyjnych
klasyfikacji wzorcowej
W pewnym problemie eksploracji danych zmienna wyjściowa (zależna) przyjmuje 3 możliwe wartości: "biały","czerwony", "niebieski". Dany problem zaliczamy do zadań:
klasyfikacji bezwzorcowej (grupowania)
regresyjnych (szacowanie, predykcja)
klasyfikacji wzorcowej
poszukiwania reguł asocjacyjnych
Argumentem funkcji aktywacji neuronu typu RBF jest
suma sygnałów x1 + x2 + ... wektora wejściowego x
iloczyn skalarny wektorów: wejściowego x i wag w
odległość wektorów: wejściowego x i wag w
ważona liczba wejść danego neuronu
odległość wektorów: wejściowego x i wag w
Argumentem funkcji aktywacji neuronu typu RBF jest
suma sygnałów x1 + x2 + ... wektora wejściowego x
iloczyn skalarny wektorów: wejściowego x i wag w
odległość wektorów: wejściowego x i wag w
ważona liczba wejść danego neuronu
Algorytm aglomeracyjny rozpoczyna proces analizy od stanu, w którym:
każdy obiekt tworzy osobne skupienie
wszystkie obiekty tworzą jedno skupenie
obiekty podzielone są wstępnie przy użyciu innej metody grupowania
obiekty są losowo przydzielone do skupień, a liczba skupień jest z góry określana
każdy obiekt tworzy osobne skupienie
Algorytm aglomeracyjny rozpoczyna proces analizy od stanu, w którym:
każdy obiekt tworzy osobne skupienie
wszystkie obiekty tworzą jedno skupenie
obiekty podzielone są wstępnie przy użyciu innej metody grupowania
obiekty są losowo przydzielone do skupień, a liczba skupień jest z góry określana
Technika k-krotnej walidacji krzyżowej służy do:
wyeliminowania wzajemnych zależności między zmiennymi
ustalenia optymalnego momentu przerwania uczenia modelu
uniknięcia tendencyjności w ocenie jakości modelu
klasteryzacji zbioru na k maksymalnie odległych skupień
uniknięcia tendencyjności w ocenie jakości modelu
Technika k-krotnej walidacji krzyżowej służy do:
wyeliminowania wzajemnych zależności między zmiennymi
ustalenia optymalnego momentu przerwania uczenia modelu
uniknięcia tendencyjności w ocenie jakości modelu
klasteryzacji zbioru na k maksymalnie odległych skupień
Wskaż metodę NIEPRZYDATNĄ w rozwiązywaniu zadań predykcyjnych:
sieć neuronowa typu RBF
sieć neuronowa typu PERCEPTRON WIELOWARSTWOWY
liniowa regresja wieloraka
algorytm k-średnich
algorytm k-średnich
Wskaż metodę NIEPRZYDATNĄ w rozwiązywaniu zadań predykcyjnych:
sieć neuronowa typu RBF
sieć neuronowa typu PERCEPTRON WIELOWARSTWOWY
liniowa regresja wieloraka
algorytm k-średnich
Algorytmy genetyczne (ewolucyjne) służą generalnie do realizacji zadań:
poszukiwania reguł asocjacyjnych
optymalizacji
regresji
eksploracji danych zapisanych w chromosomach roślin i zwierząt
optymalizacji
Algorytmy genetyczne (ewolucyjne) służą generalnie do realizacji zadań:
poszukiwania reguł asocjacyjnych
optymalizacji
regresji
eksploracji danych zapisanych w chromosomach roślin i zwierząt
Pojęcie tensora występujące często w dziedzinie uczenia głębokiego oznacza:
wektor wskazujący kierunek najszybszego spadku błędu sieci
warstwę wejściową rozprowadzającą sygnały do sieci
wyspecjalizowany rodzaj neuronów przetwarzających obraz
uogólnienie pojęcia macierzy na wiele wymiarów
uogólnienie pojęcia macierzy na wiele wymiarów
Pojęcie tensora występujące często w dziedzinie uczenia głębokiego oznacza:
wektor wskazujący kierunek najszybszego spadku błędu sieci
warstwę wejściową rozprowadzającą sygnały do sieci
wyspecjalizowany rodzaj neuronów przetwarzających obraz
uogólnienie pojęcia macierzy na wiele wymiarów
Aglomeracyjne metody klasteryzacji polegają na
iteracyjnym dzieleniu klastrów na najbardziej odległe połowy
krokowym dodawaniu linii dzielących klastry w optymalnym miejscu
przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
stopniowym ograniczaniu klastrów poprzez usuwanie outlierów
przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
Aglomeracyjne metody klasteryzacji polegają na
iteracyjnym dzieleniu klastrów na najbardziej odległe połowy
krokowym dodawaniu linii dzielących klastry w optymalnym miejscu
przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
stopniowym ograniczaniu klastrów poprzez usuwanie outlierów
Argumentem funkcji aktywacji neuronu typu MLP (w sieci perceptronowej) jest :
suma sygnałów x1 + x2 + ... wektora wejściowego x
ważona liczba wejść danego neuronu
iloczyn skalarny wektorów: wejściowego x i wag w
odległość wektorów: wejściowego x i wag w
ważona liczba wejść danego neuronu
Argumentem funkcji aktywacji neuronu typu MLP (w sieci perceptronowej) jest :
suma sygnałów x1 + x2 + ... wektora wejściowego x
ważona liczba wejść danego neuronu
iloczyn skalarny wektorów: wejściowego x i wag w
odległość wektorów: wejściowego x i wag w
Która z wymienionych metod NIE jest stosowana w procesie analizy skupień (grupowania)
metody aglomeracyjne (generujące dendrogram)
algorytm k-najbliższych sąsiadów
algorytm k-średnich
sieć neuronowa Kohonena (Typu SOM)
algorytm k-najbliższych sąsiadów
Która z wymienionych metod NIE jest stosowana w procesie analizy skupień (grupowania)
metody aglomeracyjne (generujące dendrogram)
algorytm k-najbliższych sąsiadów
algorytm k-średnich
sieć neuronowa Kohonena (Typu SOM)
Wskaż metodę NIEPRZYDATNĄ w rozwiązywaniu zadań predykcyjnych
sieć neuronowa typu RBF
algorytm A-priori
liniowa regresja wieloraka
sieć neuronowa tupu PERCEPTRON WIELOWARSTWOWY
algorytm A-priori
Wskaż metodę NIEPRZYDATNĄ w rozwiązywaniu zadań predykcyjnych
sieć neuronowa typu RBF
algorytm A-priori
liniowa regresja wieloraka
sieć neuronowa tupu PERCEPTRON WIELOWARSTWOWY
Memorizer.pl

Cześć!

Wykryliśmy, że blokujesz reklamy na naszej stronie.

Reklamy, jak zapewne wiesz, pozwalają na utrzymanie i rozwój serwisu. W związku z tym prosimy Cię o ich odblokowanie by móc kontynuować naukę.

Wyłącz bloker reklam a następnie
Kliknij aby przeładować stronę
lub
Subskrybuj Memorizer+