A.开发一个Python脚本以实时使Amazon EC2中的数据失败,并将数据存储在Amazon S3中。使用复制命令将数据从Amazon S3复制到Amazon Redshift。将在Amazon EC2上运行的商业智能工具连接到Amazon Redshift并创建可视化
B.使用在Auto Scaling组的EC2实例上运行的Amazon Kinesis代理来收集数据并将其发送到Amazon Kinesis Data Forehose交付流。 Kinesis Data Firehose交付流将直接将数据交付给Amazon ES。使用Kibana可视化数据
C.使用在Amazon EBS优化的EC2实例上运行的内存中缓存应用程序来近乎实时地捕获日志数据。在同一EC2实例上安装Amazon ES集群,以存储将日志文件近乎实时地交付到Amazon EC2的日志文件。安装一个Kibana插件来创建可视化
D.使用在EC2实例上运行的Amazon Kinesis代理收集数据并将其发送到Amazon Kinesis Data Firehose交付流。Kinesis Data Firehose交付流会将数据交付给Amazon S3。使用AWS Lambda函数将数据从Amazon S3传递到Amazon ES。使用Kibana可视化数据