Zbieranie danych
1. Pracujesz dla dużej firmy technologii reklamowych, która rutynowo wyświetla zestaw predefiniowanych reklam. Ze względu na popularność Twoich produktów Twoja witryna internetowa zyskuje popularność, przyciągając uwagę zróżnicowanej grupy odwiedzających. Obecnie umieszczasz dynamiczne reklamy na podstawie danych o kliknięciach użytkowników; jednak odkryłeś, że czas procesu nie nadąża za wyświetlaniem nowych reklam, ponieważ pobyt użytkownika na stronie internetowej jest krótki (kilka sekund) w porównaniu z czasem realizacji dostarczenia nowej reklamy (> 1 minuta). Poproszono Cię o ocenę usług platformy AWS pod kątem możliwego rozwiązania w celu przeanalizowania problemu i skrócenia ogólnego czasu wyświetlania reklam. Które z poniższych jest Twoim zaleceniem?
A. Prześlij dane strumienia kliknięć do kolejki Amazon SQS. Niech Twoja aplikacja zasubskrybuje kolejkę SQS i zapisze dane w instancji Amazon RDS. Przeprowadź analizę za pomocą SQL.
B. Przenieś witrynę internetową do hostowania w AWS i użyj AWS Kinesis do dynamicznego przetwarzania strumienia kliknięć użytkowników w czasie rzeczywistym.
C. Prześlij kliknięcia w sieci do Amazon Kinesis Fire hose i przeanalizuj za pomocą Kinesis Analytics lub Kinesis Client Library.
D. Prześlij kliknięcia w sieci do Amazon Kinesis Stream i przeanalizuj za pomocą Kinesis Analytics lub Kinesis Client Library (KCL).
2. Nadchodzący startup z autonomicznymi ciężarówkami dostawczymi wyposażonymi w wbudowane czujniki poprosił Cię o przechwytywanie danych docierających w czasie niemal rzeczywistym i śledzenie ruchu pojazdów w mieście. Będziesz przechwytywać informacje z wielu czujników z danymi, które obejmują numer identyfikacyjny pojazdu, markę, model, kolor i współrzędne GPS. Dane są wysyłane co 2 sekundy i muszą być przetwarzane w czasie niemal rzeczywistym. Którego z poniższych narzędzi możesz użyć do pobierania danych i przetwarzania ich w czasie niemal rzeczywistym?
A. Amazon Kinesis
B. AWS Data Pipeline
C. Amazon SQS
D. Amazon EMR
3. Które ze stwierdzeń dotyczących robotów AWS Glue są prawdziwe? (Wybierz trzy odpowiedzi.)
A. Roboty AWS Glue zapewniają wbudowane klasyfikatory, których można używać do klasyfikowania dowolnego typu danych.
B. Roboty AWS Glue mogą łączyć się z Amazon S3, Amazon RDS, Amazon Redshift, Amazon DynamoDB i dowolnymi źródłami JDBC.
C. Roboty AWS Glue oferują opcję niestandardowych klasyfikatorów, które umożliwiają klasyfikację danych, których nie można sklasyfikować za pomocą wbudowanych klasyfikatorów.
D. Roboty AWS Glue zapisują metadane w katalogu danych AWS Glue.
4. Zostałeś poproszony o pracę nad nowym i ekscytującym projektem, w którym dane pochodzą z inteligentnych czujników w kuchni i są wysyłane na platformę AWS. Musisz upewnić się, że możesz filtrować i przekształcać dane otrzymywane z czujników przed ich przechowywaniem w DynamoDB. Która z poniższych usług AWS jest idealnie dostosowana do tego scenariusza?
A. Silnik reguł IoT
B. Usługa IoT Device Shadow
C. Broker wiadomości IoT
D. IoT Device Shadow
5. Pracujesz dla instytucji finansowej z listy Fortune 500, która obsługuje swoje bazy danych w usłudze Microsoft Azure. Postanowili przenieść się do AWS i chcą przenieść swoje bazy danych SQL do Amazon RDS. Która z poniższych usług może uprościć proces migracji?
A. Amazon Kinesis
B. Managed Streaming for Kafka
C. AWS Glue
D. AWS Data Migration Service
6. Twój klient ma lokalny klaster Cloudera i chce przenieść obciążenia na platformę AWS. Klient nie chce płacić za licencję ani żadnych stałych kosztów. Jego celem jest zbudowanie bezserwerowego potoku w modelu płatności za użytkowanie, zapewniając ograniczony wpływ migracji na istniejący kod PySpark. Jakie byłyby Twoje zalecenia dotyczące następujących opcji?
A. Migracja lokalnego klastra Cloudera na platformę AWS poprzez uruchomienie go na instancjach EC2.
B. Migracja lokalnego klastra Cloudera do długotrwałego klastra Amazon EMR.
C. Migracja lokalnego kodu PySpark do przejściowego klastra Amazon EMR.
D. Migracja kodu do AWS Glue.
7. Pracujesz dla firmy oferującej przewozy, która niedawno weszła na rynek dostaw żywności i przetwarzania zamówień. System przetwarzania zamówień jest oparty na AWS. Przetwarzanie zamówień napotyka problemy ze skalowaniem, szczególnie w porze lunchu i kolacji, gdy otrzymuje się nadmierną liczbę zamówień. W obecnej infrastrukturze masz wystąpienia EC2, które odbierają zamówienia z aplikacji, oraz wystąpienia EC2 w grupie automatycznego skalowania w celu przetwarzania zamówień. Jaką architekturę poleciłbyś, aby zapewnić prawidłowe skalowanie wystąpień przetwarzania EC2 w oparciu o zapotrzebowanie?
A. Użyj kolejek SQS, aby oddzielić komponenty architektury dotyczące przyjmowania zamówień i ich przetwarzania. Skaluj serwery przetwarzania na podstawie długości kolejki.
B. Użyj kolejek SQS, aby oddzielić komponenty architektury dotyczące przyjmowania zamówień i ich przetwarzania. Skaluj serwery przetwarzania na podstawie powiadomień wysyłanych z kolejek SQS.
C. Użyj metryk CloudWatch, aby zrozumieć obciążenie serwerów przetwarzania. Upewnij się, że SNS jest używany do skalowania serwerów na podstawie powiadomień.
D. Użyj metryk CloudWatch, aby zrozumieć obciążenie serwerów przetwarzających, a następnie odpowiednio skaluj pojemność.
8. Twój dyrektor ds. informatyki niedawno ogłosił, że migrujesz do AWS, aby obniżyć koszty i poprawić ogólną zwinność, korzystając z szerokości i głębi platformy. Masz wiele lokalnych baz danych Oracle, które są nie tylko drogie z perspektywy licencjonowania, ale również trudne do skalowania. Zdałeś sobie sprawę, że możesz uzyskać taką samą wydajność z Amazon Aurora za 1/10 kosztów, dlatego chcesz kontynuować migrację. Chcesz wcześniej utworzyć schemat na instancji AWS My SQL. Które z poniższych jest najłatwiejszym podejściem do wykonania tego zadania?
A. Użyj narzędzia AWS Database Generation Tool, aby wygenerować schemat w docelowej bazie danych.
B. Użyj narzędzia AWS Schema Conversion Tool, aby wygenerować schemat w docelowej bazie danych.
C. Utwórz skrypty, aby wygenerować schemat w docelowej bazie danych.
D. Użyj narzędzia AWS Config Tool, aby wygenerować schemat w docelowej bazie danych.
9. Które z poniższych rozwiązań można wykorzystać do przenoszenia ekstremalnie dużych ilości danych do AWS, nawet do 100 PB na urządzenie?
A. AWS Snowmobile
B. AWS Snowball
C. AWS S3 Export
D. AWS S3 Transfer Acceleration
E. AWS Direct Connect
10. Niedawno przeniosłeś się do AWS, ale nadal utrzymujesz lokalne centrum danych. Przeprowadziłeś już migrację obciążeń BI/analitycznych i DWH do Amazon Redshift i teraz musisz przenieść duże ilości danych do Redshift, aby mieć pewność, że cotygodniowe raporty będą zawierały świeże dane. Której zarządzanej przez AWS usługi można użyć do tego transferu danych w prosty, szybki i bezpieczny sposób? (Wybierz dwie odpowiedzi.)
A. Direct Connect
B. Import/eksport do AWS
C. Data Pipeline
D. Snowball
1. D. Opcja A nie zapewnia żadnego wsparcia w zakresie analizy danych w czasie rzeczywistym. Opcja B jest nieprawidłowa i niejasna. Opcja C obejmuje Kinesis Firehose, który pomaga w agregacji danych, a nie w analizie danych w czasie rzeczywistym. Opcja D jest prawidłowa, ponieważ obejmuje Kineiss Analytics i KCL.
2. A. Amazon Kinesis to usługa służąca do pobierania strumieniowych danych w czasie rzeczywistym. Data Pipeline jest głównie do przetwarzania wsadowego, Amazon SQS służy do komunikacji opartej na wiadomościach, a Amazon EMR ma wiele silników, które są głównie wsadowe. Możesz użyć przesyłania strumieniowego Spark, ale nie jest to wyraźnie wymienione w opcjach.
3. B, C, D. Wyjaśnienie: A jest niepoprawne, ponieważ wbudowanych klasyfikatorów AWS Glue nie można używać dla żadnego typu danych. B, C, D są poprawne - patrz: https://docs.aws.amazon.com/glue/latest/ dg/populate-data-catalog.html.
4. A. IoT Rules Engine daje możliwość transformacji danych otrzymywanych z urządzeń IoT.
5. D. AWS Database Migration Service pomaga szybko i bezpiecznie migrować bazy danych do AWS. Baza danych źródłowa pozostaje w pełni operacyjna podczas migracji, minimalizując przestoje aplikacji, które polegają na bazie danych. AWS Database Migration Service może migrować dane do i z większości powszechnie używanych baz danych komercyjnych i typu open source.
6. D. AWS Glue jest zalecaną opcją, ponieważ jest bezserwerowa i oferuje model płatności za użytkowanie bez stałych kosztów.
7. A. Wyjaśnienie: Użycie długości kolejki pomoże Ci skalować serwery w oparciu o zapotrzebowanie, a także pomoże je zmniejszyć, gdy zapotrzebowanie jest niskie. Zapoznaj się z poniższym linkiem: https://amzn.to/3bWbDma.
8. B. Wyjaśnienie: Narzędzie do konwersji schematów AWS jest właściwym wyborem do konwersji schematów z Oracle do Amazon Aurora.
9. A. Wyjaśnienie: AWS Snowmobile jest zalecaną opcją do transferu danych w skali petabajtów.
10. A,B. Wyjaśnienie: Ponieważ są to duże ilości danych, Data Pipeline nie będzie opcją, biorąc pod uwagę, że potrzebujesz, aby był prosty i szybki. Data Pipeline będzie wymagał zbudowania niestandardowego potoku. Podobnie, AWS Snowball również nie jest szybką opcją, ponieważ czas realizacji może być dość długi. Jednak jeśli masz Direct Connect i możliwość importowania/eksportowania, będzie to najszybszy sposób na przeniesienie danych do Amazon S3 i skopiowanie ich do Amazon Redshift.