Amazon AWS-sertifisert-Solutions-Architect-Professional eksamen opplæringsmateriell ved Nhiyam Firyal

Test Information:

Totalt Spørsmål: 80

Test Antall: AWS-Sertifiserte-Solutions-Architect-Professional

Vendor Navn: Amazon

Cert Navn: Amazon

Test Navn: AWS Certified Solutions Architect - Profesjonell

Official Site: www.certsgrade.com

For Flere detaljer :: http://www.certsgrade.com/pdf/AWS-Certified-Solutions-Architect-Professional/


Question:

1

Du trenger evnen til å analysere store mengder data som er lagret på Amazon S3 bruker Amazon Elastic MapReduce. Du bruker cc2.8xlarge eksempel typen, hvis CPUer er stort sett inaktiv under behandlingen. Hvilke av de under ville være den mest kostnadseffektive måten å redusere kjøretiden til jobben?

A. Lag færre, større filer m Amazon S3.

B. Bruk mindre forekomster som har høyere aggregat I /O-ytelse.

C. Lag flere, mindre filer på Amazon S3.

D. Legg til flere cc2.8xlarge tilfeller ved å innføre en oppgave gruppe

Svar:.

B

Spørsmål:

2

Du er den nye IT-arkitekt i et selskap som driver en mobil søvn sporing søknad.

Når aktivert om natten, den mobile app sender innsamlede datapunkter fra en kilobyte hver 5 minutter til backend.

backend tar seg av autentisere brukeren og skrive datapunktene i en Amazon DynamoDB tabellen.

Hver morgen kan du scanne bordet for å trekke ut og samlet gårsdagens data på en per bruker basis, og lagre resultatene i Amazon S3. Brukere blir varslet via Amazon SNS mobile push-varslinger at ny informasjon er tilgjengelig, som er analysert og visualisert ved den mobile app.

Nå har du rundt 100k brukere som stort sett basert ut av Nord-Amerika.

Du har fått i oppgave å optimalisere arkitekturen i backend systemet til lavere kostnad. Hva vil du anbefale? Velg 2 svar

A. Har mobile app tilgang Amazon DynamoDB direkte i stedet for JSON-filer lagret på Amazon S3.

B. Skrive data direkte til en Amazon rødforskyvning klynge erstatte både Amazon DynamoDB og Amazon S3.

C. Innføre en Amazon SQS kø for å bufre skriver til Amazon DynamoDB bordet og redusere klargjort skrive gjennomstrømming.

D. Introduser Amazon Elasticache å cache leser fra Amazon DynamoDB bordet og redusere klargjort lese gjennomstrømming.

E. Opprett en ny Amazon DynamoDB bordet hver dag og slippe en for gårsdagen etter at data er på Amazon S3

Svar:.

A, D

Spørsmål:

3

Din avdeling skaper regelmessige analyserapporter fra bedriftens loggfiler. Alt loggdata samles i Amazon S3 og behandles av daglig Amazon Elastic MapReduce (EPJ) jobber som genererer daglige PDF rapporter og aggregerte tabeller i .csv-format for en Amazon rødforskyvning datavarehus.

Dine CFO forespørsler som du optimaliserer kostnadsstrukturen for dette systemet.

Hvilke av følgende alternativer vil redusere kostnader uten at gjennomsnittlig ytelse av systemet eller dataintegritet for rådata?

A. Bruk redusert redundans lagring (RRS) for alle data i S3. Bruk en kombinasjon av Spot forekomster og reservert forekomster for Amazon EPJ jobber. Bruk Reserverte Forekomster for Amazon rødforskyvning.

B. Bruk redusert redundans lagring (RRS) for PDF og CSV data i S3. Legg Spot Forekomster til EPJ jobber. Bruk Spot forekomster for Amazon rødforskyvning.

C. Bruk redusert redundans lagring (RRS) for PDF og CSV data i Amazon S3. Legg Spot Forekomster til Amazon EPJ jobber. Bruk Reserverte Forekomster for Amazon rødforskyvning.

D. Bruk redusert redundans lagring (RRS) for alle data i Amazon S3. Legg Spot Forekomster til Amazon EPJ jobber. Bruk Reserverte Forekomster for Amazon rødforskyvning

Svar:.

A

Spørsmål:

4

Ditt nettsted er servering on-demand trening videoer til dine ansatte. Videoer lastes opp månedlig i høy oppløsning MP4 format. Arbeidsstokken er distribuert globalt, ofte på farten og bruke selskaps gitt tabletter som krever HTTP Live Streaming (HLS) protokollen for å se en video. Firmaet har ingen video transkoding kompetanse og om nødvendig må du kanskje betale for en konsulent.

Hvordan implementerer du den mest kostnadseffektive arkitektur uten å gå på akkord med høy tilgjengelighet og kvalitet på video levering?

A. En video transkoding rørledning kjører på EC2 bruker SQS å fordele oppgaver og Auto Skalering å justere antall noder avhengig av lengden på køen. EBS volumer som vert videoer og EBS snapshots til trinnvis backup originalfilene etter noen dager. CloudFront å tjene HLS transkodet video fra EC2.

B. Elastisk Transcoder å omkode originale høyoppløste MP4 videoer til HLS. EBS volumer som vert videoer og EBS snapshots til trinnvis backup originalfilene etter noen dager. CloudFront å tjene HLS transkodet video fra EC2.

C. Elastisk Transcoder å omkode originale høyoppløste MP4 videoer til HLS. S3 som vert videoer med Lifecycle Management til å arkivere originale filene til Glacier etter noen dager. CloudFront å tjene HLS transkodet video fra S3.

D. En video transkoding rørledning kjører på EC2 bruker SQS å fordele oppgaver og Auto Skalering å justere antall noder avhengig av lengden på køen. S3 som vert videoer med Lifecycle Management til å arkivere alle filer til Glacier etter noen dager. CloudFront å tjene HLS transkodet video fra Glacier

Svar:.

A

Spørsmål:

5

Du utplassert bedriftens hjemmeside bruker Elastic Beanstalk og du aktivert loggfil rotasjon til S3. En elastisk MapReduce Job periodisk analysere loggene på S3 for å bygge en bruks dashbord som du deler med CIO.

Du har nylig forbedret generelle ytelsen til nettstedet som bruker CloudFront for dynamisk innhold levering og ditt nettsted som opprinnelsen.

Etter dette arkitektoniske endring, viser bruken dashbordet at trafikken på nettstedet ditt falt med en størrelsesorden.

Hvordan du fikse din bruk dashbordet?

A. Endre log samling prosess for å bruke CloudWatch ELB beregninger som input av Elastic MapReduce Job.

B. Slå på CloudTrail og bruke stien loggfiler på S3 som input av Elastic MapReduce jobben.

C. Aktiver CloudFront å levere tilgang til loggene til S3 og bruke dem som inngang på Elastic MapReduce jobben.

D. Bruk Elastic Beanstalk "Restart App Server (s)" for å oppdatere loggen levering til Elastic MapReduce jobben.

E. Bruk Elastic Beanstalk "Gjenoppbygg Environment" for å oppdatere loggen levering til Elastic MapReduce jobben

Svar:.

D

Spørsmål:

6

En web selskapet er ute etter å gjennomføre et innbrudd oppdagelse og forebygging system inn i deres utplassert VPC. Denne plattformen skal ha muligheten til å skalere til tusenvis av forekomster som kjører inne i VPC.

Hvordan skal de arkitekten deres løsning for å oppnå disse målene?

A. Konfigurere hver vert med en agent som samler all nettverkstrafikk og sender trafikken til IDS /IPS plattform for inspeksjon.

B. Konfigurere en forekomst med avlytting programvare og elastisk nettverksgrensesnitt (ENI) satt til promiskuøse modus packet sniffing å se all trafikk over VPC.

C. Lag en andre VPC og rute all trafikk ved første påføring VPC gjennom andre VPC der skalerbare virtualiserte IDS /IPS-plattformen ligger.

D. Konfigurere servere som kjører i VPC hjelp av vertsbasert "rute" kommandoer til å sende all trafikk gjennom plattformen til en skalerbar virtualiserte IDS /IPS

Svar:.

D

Spørsmål:

7

Du kjører en vellykket multitier webapplikasjon på AWS og markedsføringsavdelingen har bedt deg om å legge til en rapporterings tier til søknaden. Rapporteringen tier vil samle og publisere statusrapporter hvert 30. minutt fra brukergenerert informasjon som blir lagret i din webapplikasjon database. Du kjører en Multi-AZ RDS MySQL instans for databasen tier. Du har også implementert ElastiCache som en database caching lag mellom applikasjonen tier og database tier. Vennligst velg svar som vil tillate deg å lykkes med implementering av rapporterings tier med så lite påvirkning som mulig til database:

A. Lansere en RDS Les Replica koblet til Multi AZ mester database og generere rapporter ved spørring Les Replica.

B. Stadig sende transaksjonslogger fra master database til en S3 bøtte og generere rapporter utenfor S3 bøtte ved hjelp av S3 byteområder forespørsler.

C. Generere rapporter fra spørring mot ElastiCache database caching tier.

D. Generere rapporter ved å spørre den synkront replikert standby RDS MySQL eksempel opprettholdt gjennom Multi-AZ

Svar:.

B

Spørsmål:

8

Firmaet har lastet opp en stor mengde av flybilder bildedata til S3. I det siste, i det lokale miljøet, brukte du en dedikert gruppe av servere til batch behandle disse dataene og brukt RabbitMQ, en åpen kildekode meldingssystem, for å få jobb informasjon til serverne. Bearbeidet dataene skulle gå til tape og sendes offsite. Din manager fortalte deg å bo med dagens design, og utnytte AWS arkiv lagring og meldingstjenester å minimere kostnadene. Hvilken er riktig?

A. Bruk SNS å passere jobbmeldinger, bruke CloudWatch alarmer til å avslutte stikk arbeideren tilfeller når de blir inaktiv. Når data behandles, endre lagringsklasse S3 objektet til breen.

B. Bruk SQS for bestått jobbmeldinger, bruk CloudWatch alarmer for å avslutte EC2 arbeideren tilfeller når de blir inaktiv. Når data behandles, endre lagringsklasse av S3 objekter til Redusert Redundancy Storage.

C. Oppsett Auto-Skalert arbeidere utløst av køen dybde som bruker stikk tilfeller å behandle meldinger i SQS. Når data behandles, endre lagringsklasse av S3 objekter til Redusert Redundancy Storage.

D. Oppsett Auto-Skalert arbeidere utløst av køen dybde som bruker stikk tilfeller å behandle meldinger i SQS. Når data behandles, endre lagringsklasse av S3 objekter til Glacier

Svar:.

A


Test Information:

Totalt Spørsmål: 80

Test Antall: AWS-sertifiserte-Solutions-Architect-Professional

Vendor Navn: Amazon

Cert Navn: Amazon

Test Navn: AWS Certified Solutions Architect - Profesjonell

Official Site: www.certsgrade.com

For Flere detaljer :: http: //www.certsgrade.com/pdf /AWS-sertifiserte-Solutions-Architect-Professional /