Amazon AWS-Solution-Architect-Associate PDF opplæringsmateriell ved Nhiyam Firyal

Test Information:

Totalt Spørsmål: 413

Test Antall: AWS-Solution-Architect-Associate

Vendor Navn: Amazon

Cert Navn: AWS Certified Solutions Architect

Test Navn: AWS Certified Solutions Architect - Associate

Official Site: www.certsgrade.com

For Flere detaljer :: http://www.certsgrade.com/pdf/AWS-Solution-Architect-Associate/


Spørsmål:

1

En 3-lags e-handel webapplikasjon er aktuell utplassert på lokaler og vil bli overført til AWS for større skalerbarhet og elastisitet Webserveren tiden aksjer som skrivebeskyttede data ved hjelp av et nettverk distribuert filsystem Appen serveren tier bruker en gruppering mekanisme for oppdagelsen og delt øktstatus som avhenger av IP multicast Databasen tier bruker delt-lagring clustering å gi database fall over evne, og bruker flere lese slaver for skalering av data på alle servere og distribuerte filsystem katalogen er støttet opp ukentlig til off-site bånd

Hvilke AWS lagring og databasearkitektur oppfyller kravene i søknaden?

A. Web servere, lagre beskyttede data i S3, og kopiere fra S3 til roten volum ved oppstart App servere snare tilstand ved hjelp av en kombinasjon eller DynamoDB og IP unicast Database bruke RDS med multi-AZ utplassering og en eller flere Les Replicas Backup web og app servere sikkerhetskopieres ukentlig via Mils database sikkerhetskopieres via DB snapshots.

B. Web-servere butikken -Les-bare data i S3, og kopiere fra S3 til roten volum ved oppstart App servere aksje tilstand ved hjelp av en kombinasjon av DynamoDB og IP unicast Database, bruke RDS med multi-AZ utplassering og en eller flere lese kopier Backup web servere app servere og database sikkerhetskopiert ukentlig til breen ved hjelp av stillbilder.

C. Webservere butikkbeskyttede data I S3 og kopiere fra S3 til roten volum ved oppstart App servere aksje tilstand ved hjelp av en kombinasjon av DynamoDB og IP unicast Database bruke RDS med multi-AZ Backup distribusjon web og app-servere sikkerhetskopieres ukentlig via AM er . Database støttet opp via DB snapshots

D. Webservere, lagre beskyttede data i en EC2 NFS server, montere til hver web server ved oppstart App servere aksje tilstand ved hjelp av en kombinasjon av DynamoDB og IP multicast Database bruke RDS med multi-AZ utplassering og en eller flere Les Replicas Backup web og app servere sikkerhetskopieres ukentlig via Mils database sikkerhetskopieres via DB snapshots

Svar:

B

Spørsmål:

2

Kunden ønsker å distribuere et foretak program til AWS som vil bestå av flere webservere, flere applikasjonsservere og en liten (50 GB) Oracle database informasjon er lagret, både i databasen og filsystemer av de ulike serverne. Backup-systemet må støtte database utvinning hele serveren og hele disk gjenoppretter, og individuell fil gjenoppretter med en restitusjonstid på ikke mer enn to timer. De har valgt å bruke RDS Oracle som database

Som backup arkitektur vil møte disse kravene?

A. Backup RDS bruke automatiserte daglige DB sikkerhetskopier Backup de EC2 instanser bruker Amis og supplere med file-level backup til S3 bruker tradisjonell enterprise backup-programvare for å gi filnivå gjenopprette

B. Backup RDS ved hjelp av en Multi-AZ Deployment Backup de EC2 forekomster ved Amis og supplement ved å kopiere filen systemdata til S3 å gi filnivå gjenopprette.

C. Backup RDS bruker automatiserte daglig DB sikkerhetskopier Backup de EC2 instanser bruker EBS snapshots og supplere med file-level backup til Amazon Glacier ved hjelp av tradisjonell enterprise backup-programvare for å gi filnivå gjenopprette

D. Backup RDS database til S3 bruker Oracle RMAN backup de EC2 forekomster ved Amis, og supplere med EBS snapshots for individuell volum gjenopprette

Svar:.

C

Explanation:

Reference:

http://www.boyter.org/wp-content/uploads/2014/12/Backup-And-Recovery-Approaches-Using-Aws.pdf

Question:

3

Firmaet har hovedkontor i Tokyo og avdelingskontorer over hele verden, og bruker en logistikk programvare med en multi-regional distribusjon på AWS i Japan, Europa og USA

A. Logis programvare har en tre-lags arkitektur og for tiden bruker MySQL 5.6 for data utholdenhet. Hver region har distribuert en egen database

I HQ regionen du kjøre en time batch prosess lese data fra hver region til å beregne kryss regionale rapporter som sendes via e-post til alle kontorer dette batch prosessen må fullføres så raskt som mulig for å raskt optimalisere logistikken hvordan bygger du databasearkitektur for å oppfylle kravene '?

A. For hver regional distribusjon, bruke RDS MySQL med en master i regionen og en lese replika i HQ omegn

B. For hver regional distribusjon, bruke MySQL på EC2 med en master i regionen og send time EBS snapshots til HQ omegn

C. For hver regional distribusjon, bruke RDS MySQL med en master i regionen og send time RDS snapshots til HQ omegn

D. For hver regional distribusjon, bruke MySQL på EC2 med en master i regionen og bruke S3 til å kopiere datafiler time til HQ omegn

E. Bruk Direct Connect for å koble alle regionale MySQL-distribusjoner til HQ regionen og redusere nettverksventetid for batch prosessen

Svar:

A

Spørsmål:

4

En kunde har en 10 GB AWS Direct Connect tilkobling til en AWS region der de har en webapplikasjon vert på Amazon Elastic Computer Cloud (EC2). Søknaden har avhengigheter på en lokal stormaskin database som bruker en BASE (Basic tilgjengelig. Sorter bedervet Eventuell konsistens) snarere enn en ACID (atomicity. Konsistens isolasjon. Holdbarhet) konsistens modell. Søknaden stiller uønsket atferd fordi databasen ikke er i stand til å håndtere volumet skrivinger. Hvordan kan du redusere belastningen på on-lokaler database ressurser på den mest kostnadseffektive måten?

A. Bruk en Amazon Elastic Kart Reduser (EPJ) S3DistCp som et synkroniseringsmekanisme mellom den lokale databasen og en Hadoop cluster på AWS.

B. Endre appen å skrive en Amazon SQS kø og utvikle en arbeidstaker prosess for å skylle køen til den lokale databasen.

C. Endre programmet til å bruke DynamoDB å mate en EPJ klynge som bruker et kart funksjon for å skrive til den lokale databasen.

D. Bestemmelsen en RDS lese-replika database på AWS å håndtere de skriver og synkronisere de to databasene med Data Pipeline

Svar:.

A

Explanation:

Reference:

https://aws.amazon.com/blogs/aws/category/amazon-elastic-map-reduce/

Question:

5

Selskap B lanserer et nytt spill app for mobile enheter. Brukerne vil logge inn i spillet ved hjelp av sine eksisterende sosiale medier konto for å effektivisere datafangst. Selskap B vil gjerne direkte lagre spiller data og utføre informasjon fra mobile app til en DynamoDS tabell med navnet Score data Når en bruker lagrer sine spill fremdriftsdata vil bli lagret til spillet staten S3 bøtte. Hva er den beste tilnærmingen for å lagre data til DynamoDB og S3?

A. Bruk en EC2 instans som er lansert med en EC2 rolle som gir tilgang til Score data DynamoDB bordet og GameState S3 bøtte som kommuniserer med mobile app via webtjenester.

B. Bruk midlertidige sikkerhetsinformasjonen som antar en rolle som gir tilgang til Score data DynamoDB bordet og spillet staten S3 bøtte ved hjelp av web identitet federation.

C. Bruk Pålogging med Amazon slik at brukerne kan logge på med en Amazon-konto gir mobile app med tilgang til Score data DynamoDB bordet og spillet staten S3 bøtte.

D. Bruk en IAM bruker med tilgangslegitimasjons tildelt en rolle som gir tilgang til Score data DynamoDB bordet og spillet staten S3 bøtte for distribusjon med mobile app

Svar:.

A

Spørsmål:

6

Selskapet planlegger å være vert for en stor donasjon nettsted på Amazon Web Services (AWS). Du forventer en stor og ubestemt mengde trafikk som vil skape mange database skriver. For å være sikker på at du ikke slippe noen skriver til en database vert på AWS. Hvilken tjeneste du bruke?

A. Amazon RDS med klargjort IOPS opp til den forventede toppskrive gjennomstrømming.

B. Amazon Simple Queue Tjeneste (SOS) for å fange de skriver og drenering køen til å skrive til databasen.

C. Amazon ElastiCache å lagre skriver inntil skriver er forpliktet til databasen.

D. Amazon DynamoDB med klargjort skrive gjennomstrømning opp til forventet peak skrive gjennomstrømming

Svar:.

A

Explanation:

Reference:

http://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Storage.html

Question:

7

Du har lansert en EC2 eksempel med fire (4) 500 GB EBS klargjort IOPS volumer knyttet The EC2 instans er EBS-optimalisert og støtter 500 Mbps gjennomstrømming mellom EC2 og EBS De to EBS volumer konfigurert som en enkelt RAID o-enhet, og hver klargjort IOPS volumet er klargjort med 4.000 IOPS (4 000 16KB leser eller skriver) for totalt 16.000 tilfeldige IOPS på forekomsten The EC2 Instance leverer utgangspunktet forventet 16 000 IOPS tilfeldig lese- og skriveytelse gang senere i For å øke den totale tilfeldig I /O-ytelse av forekomsten, legger du ytterligere to 500 GB EBS klargjort IOPS volumer til RAID Hver volumet er klargjort til 4.000 IOP som den opprinnelige fire for totalt 24.000 IOPS på EC2 eksempel Monitoring viser at EC2 eksempel CPU-bruk økte fra 50% til 70%. men de totale tilfeldige IOPS målt på forekomsten nivået ikke øker i det hele tatt.

Hva er problemet og en gyldig løsning?

A. Større lagringsvolumer støtte høyere klargjort IOPS satser: øke klargjort volumet lagring av hver av de 6 EBS volumer til 1TB

B.. EBS-optimalisert throughput begrenser den totale IOPS som kan utnyttes bruk et EBS-optimalisert eksempel som gir større gjennomstrømming.

C. Små blokkstørrelser forårsake dårligere ytelse, noe som begrenser I'O gjennomstrømming, konfigurere forekomsten enhetsdriveren og filsystemet å bruke 64KB blokker for å øke gjennomstrømningen.

D. RAID 0 kun skalerer lineært til ca 4 enheter, bruk RAID 0 med 4 EBS klargjort IOPS volumer, men øker hver klargjort IOPS EBS volum til 6.000 IOPS.

E. Standarden EBS eksempel root volum begrenser totale IOPS rate, endre instant root volum til også være en 500GB 4.000 klargjort IOPS volum

Svar:.

E

Spørsmål:

8

Du har nylig sluttet en oppstart selskap bygge sensorer for å måle gate støy og luftkvalitet i byområder. Selskapet har vært i gang en pilot distribusjon av rundt 100 sensorer i 3 måneder hver sensor opplastninger 1KB av sensordata hvert minutt til en backend vert på AWS.

Under pilot, målt deg en topp eller 10 IOPS på database, og du lagret et gjennomsnitt på 3 GB sensordata per måned i databasen.

Den nåværende distribusjon består av en lastbalansert auto skalert Svelging lag bruker EC2 forekomster og en PostgreSQL RDS database med 500GB standard lagring.

Piloten er ansett som en suksess og din CEO har klart å få oppmerksomhet eller noen potensielle investorer. Forretningsplanen krever en utplassering av minst 1O0K sensorer som må støttes av backend. Du trenger også å lagre sensordata i minst to år for å kunne sammenligne år over år forbedringer.

For å sikre finansiering, må du sørge for at plattformen tilfredsstiller disse kravene, og gir rom for videre skalering. Hvilket oppsett vinne oppfylle kravene?

A. Legg en SOS køen til inntak lag å bufre skriver til RDS eksempel

B. Innta data inn i en DynamoDB tabell og flytte gamle data til en rødforskyvning klynge

C. Sett på RDS eksempel med en 6 node rødforskyvning klynge med 96TB lagringsplass

D. Beholde dagens arkitektur, men oppgradere RDS lagringsplass til 3TB og 10K klargjort IOPS

Svar:

C

Spørsmål:

9

Firmaet er i ferd med å utvikle en ny generasjon pet krage som samler biometrisk informasjon for å hjelpe familier med å fremme en sunn livsstil for sine kjæledyr Hver krage vil presse 30kb av biometriske data i JSON-format hver 2 sekunder til en samling plattform som skal behandle og analysere dataene som gir helsetrendinformasjon tilbake til dyreeiere og veterinærer via en nettportal Ledelsen har i oppgave å arkitekt samlingen plattformen sikrer følgende krav er oppfylt.

Gi mulighet for sanntidsanalyse av innkommende biometriske data

Sørg for behandlingen av biometriske data er svært slitesterkt. Elastisk og parallelt

Resultatene av den analytiske behandling bør vedvarte for data mining

Hvilken arkitektur skissert nedenfor seier møte de innledende krav til innsamling plattform?

A. Utnytte S3 å samle innkommende sensordata analysere dataene fra S3 med en daglig planlagt dataPipeLine og lagre resultatene til en rødforskyvning Cluster.

B. Utnytte Amazon Kinesis å samle inngående sensordata, analysere data med Kinesis kunder og lagre resultatene til en rødforskyvning klynge bruker EPJ.

C. Utnytte SQS å samle innkommende sensordata analysere dataene fra SQS med Amazon Kinesis og lagre resultatene til en Microsoft SQL Server RDS eksempel.

D. Utnytte EPJ å samle innkommende sensor data, analysere data fra EUR med Amazon Kinesis og redde meg resultatene til DynamoDB

Svar:.

B

Spørsmål:

10

Du trenger en vedvarende og varig lagring for å spore samtalen aktivitet av en IVR (Interactive Voice Response) system. Samtalevarighet er for det meste i 2-3 minutter tidsramme. Hver spores samtale kan være enten aktiv eller avsluttet. Et eksternt program må vite hvert minutt listen over aktive samtaler, som vanligvis er et par samtaler /sekund. Sett en gang per måned er det en periodisk peak opptil 1000 samtaler /sekund i noen timer. Systemet er åpen 24/7 og nedetid bør unngås. Historiske data periodisk arkivert til filer. Kostnadsbesparelser er en prioritet for dette prosjektet.

Hva database gjennomføringen ville passe bedre denne situasjonen, holde kostnadene så lave som mulig?

A. Bruk RDS Multi-AZ med to tabeller, en for -Active samtaler "og en for -Terminated samtaler". På denne måten "Active calls_ tabellen er alltid liten og effektiv tilgang til.

B. Bruk DynamoDB med en "anrop" bord og en global Sekundær Index på "IsActive '" attributt som er til stede for aktive samtaler på denne måten Global Sekundær-indeksen er sparsom og mer effektiv.

C. Bruk DynamoDB med, samtaler "bord og en global sekundær indeks på en, State" egenskap som kan tilsvare til "aktiv" eller "avsluttet" på denne måten Global Sekundær indeks kan brukes for alle postene i tabellen.

D. Bruk RDS Multi-AZ med en "kaller" bord og en indekserte "STATE * felt som kan være lik, ACTIVE" eller -TERMINATED "På denne måten SOL søket er optimalisert ved bruk av indeksen.

Svar:

A


Total Q & A: 413

Klikk på linken nedenfor for å få full versjon :


Test Information:

Totalt Spørsmål: 413

Test Antall: AWS-Solution-Architect-Associate

tilbyderen navn: Amazon

Cert Navn: AWS Certified Solutions Architect

Test Navn: AWS Certified Solutions Architect - Associate

Official Site: www.certsgrade.com

For Flere detaljer :: http: //www.certsgrade.com/pdf/AWS-Solution-Architect-Associate/