AWS/Azure

CloudFrontなどのS3にしか出力できないログをCloudWatch Logsに集約してLSCで収集する方法

当記事では、LogStare Collector(LSC)のCloudWatch Logs収集機能を用いてCloudFrontログを取得する方法について記載します。

CloudFrontはCloudWatch Logsに直接ログを出力することが出来ず、S3にしか出力できません。

そのため、S3に出力されたログを、Lambdaを用いてCloudWatch Logsに集約し、LSCで収集します。

 

  • 本書の手順では複数のAWSサービスを利用します。それぞれ利用料金が発生いたしますので、予めご了承ください。
  • 本書は、株式会社LogStareが2023年12月に行った検証をもとに記載しており、詳細な手順等についてはAWSのドキュメント等についてもあわせてご参照ください。
  • 本書記載の内容により発生したいかなる損害、想定外のAWS利用料金の発生等について、当社株式会社LogStareは一切の責任を負いかねます。予めご了承ください。
  • 本書記載の手順を実行後の完成後の状態は以下の通りです。

オリジン用S3の構築

CloudFrontでコンテンツを配信するためのS3を構築し、それをオリジンとして用います。

コンソールから「S3」サービスを選択し、メニューより「バケット」を選択します。
次に、「バケットを作成」を押下します。

「AWSリージョン」は任意ですが、今回は「アジアパシフィック(東京)ap-norheast-1」を選択しました。
「バケット名」に任意の名前を入力します。
その他はデフォルトで結構です。

設定が完了したら「バケットを作成」を押下します。

次に、作成したs3バケットにオリジンとして用いるファイルをアップロードします。
作成したs3バケットを押下します。

「アップロード」を押下します。

ここにオリジンとして配信したいファイルをアップロードします。

特に指定はないですが、今回はindex.htmlという名前のhtmlファイルを用意しました。
中身は以下の通りです。

<!DOCTYPE html>
<html lang="ja">
<body>

origin.

</body>
</html>

上記のファイルをドラッグアンドドロップし、「アップロード」を押下します。

これでアップロードが完了しました。

CloudFrontの構築

次にCloudFrontを構築していきます。

コンソールから「CloudFront」サービスを選択し、「ディストリビューションを作成」を押下します。

「オリジンドメイン」に先ほど作成したS3を入力します。「名前」は任意です。

「オリジンアクセス」に「Origin access control settings (recommended)」を選択し、「コントロール設定を作成」を押下します。

特に変更せず「作成」を押下します。

「ウェブアプリケーションファイアウォール(WAF)」は、今回はオフにしますが必要に応じて有効にしてください。

「料金クラス」は料金を抑えるために「北米、欧州、アジア、中東、アフリカを使用」を選択しました。
「デフォルトルートオブジェクト」はオプション設定ですが、ルート(/)にアクセスしたときにS3にアップロードしたindex.htmlを表示させるために以下のように設定しました。
その他の設定はデフォルトで結構です。

設定が完了したら、「ディストリビューションを作成」を押下します。

 

CloudFrontの作成が完了すると以下のような警告が出てきます。
これは、S3のバケットに適切な権限を設定する必要があるということを示しています。
「ポリシーをコピー」を押下し、「S3バケットの権限に移動してポリシーを更新する」を押下します。

S3のアクセス許可の設定画面に遷移しますので、「バケットポリシー」の「編集」を押下します。

コピーしたポリシーを貼り付け、「変更の保存」を押下します。

ここまで完了すると、ブラウザでCloudFrontの「ディストリビューションドメイン名」にアクセスすると、S3にアップロードしたhtmlファイルを見ることが出来ます。

ログ出力用S3の構築

次に、CloudFrontのログを出力するためのS3を構築します。(Amazonからオリジン用のS3とログ用のS3を分けるように推奨されているため、新しくS3を構築します。)

コンソールから「S3」サービスを選択し、「バケットを作成」を押下します。

「AWSリージョン」は「アジアパシフィック(東京)ap-northeast-1」を選択しました。
リージョンによってはCloudFrontのログを出力することが出来ないため、詳しくは「標準ログ用の Amazon S3 バケットの選択」をご確認下さい。
バケット名は任意の名前を入力します。

「オブジェクト所有者」は「ACL有効」を選択します。
(2023年4月以降はACLを有効にする必要があります。詳しくは「標準ログの構成とログファイルへのアクセスに必要な権限」をご確認下さい。)

その他はデフォルトで結構です。設定が完了したらページ下部にある「バケットを作成」を押下します。

次に、CloudFrontの設定を変更し、ログがS3に出力されるようにします。

作成したCloudFrontを押下します。

設定の編集を押下します。

「標準ログ記録」をオンにし、「S3バケット」にログ出力用に作成したS3を指定します。
設定が完了したら「変更を保存」を押下します。

ここまで完了するとログ出力用のS3にCloudFrontのログが出力されるようになります。(ディストリビューションドメイン名にアクセスしてから、ログが出力されるまでにはある程度時間がかかります。)

CloudWatch Logsの構築

次に、ログを出力するCloudWatch Logsを構築します。

初めにロググループを作成します。コンソールから「CloudWatch」サービスを選択し、ログ>ロググループから「ロググループを作成」を押下します。

「ロググループ名」に任意の名前を入力し、特に設定は変更せずに「作成」を押下します。

次にログストリームを作成します。作成したロググループを押下します。

「ログストリームを作成」を押下します。

任意のログストリーム名を入力し、「Create」を押下します。

Lambda関数の構築

次に、S3にあるログファイルをCloudWatch Logsに出力するLambda関数を作成します。

コンソールより「Lambda」サービスを選択し、メニューより「関数」を押下します。
右上の「関数の作成」を押下します。

「関数名」に任意の名前を入力し、ランタイムは「Python 3.9」を選択します。
その他はデフォルトで結構です。
設定が完了したら「関数の作成」を押下します。

次にトリガーの設定を行います。

「トリガーを追加」を押下します。

「ソース」にS3を選択し、「Bucket」はログ出力用に作成したS3を指定します。
「Event types」はPUTを設定します。
「Recursive invocation」にチェックを入れ、「追加」を押下します。

トリガーが作成され、S3にログファイルが出力されたタイミングでLambda関数が実行されるようになりました。

 

次に、S3にあるログファイルをCloudWatch Logsに出力するコードを入力します。

「コード」を押下し、以下のコードを入力します。logGroupNameとlogStreamNameは環境に応じて書き換えてください。

(コードは以下のサイトを参考にしました。

)

import json
import urllib.parse
import boto3
import time
import gzip
import os

print('Loading function')

s3 = boto3.client('s3')
logs_client = boto3.client('logs')

## 変数
logGroupName = "nakamura-CloudWatch-LogGroup-logs"
logStreamName = "CloudFront-logs"


def lambda_handler(event, context):
    #print("Received event: " + json.dumps(event, indent=2))

    # Get the object from the event and show its content type
    bucket = event['Records'][0]['s3']['bucket']['name']
    key = urllib.parse.unquote_plus(event['Records'][0]['s3']['object']['key'], encoding='utf-8')
    try:
        file_name = os.path.basename(key) 
        file_path = os.path.join('/tmp', file_name)
        
        
        s3.download_file(bucket, key, file_path)
        f=gzip.open(file_path,'rt')
        file_content=f.read()
        f.close()
        
        list = file_content.splitlines()

        for index,item in enumerate(list):
            if index > 1 :
                put_logs(logs_client,logGroupName,logStreamName,item)
            
        #delete file in tmp
        if os.path.isfile(file_path):
            os.remove(file_path)
        
        return 'function complete'
        
    except Exception as e:
        print(e)
        print('Error getting object {} from bucket {}. Make sure they exist and your bucket is in the same region as this function.'.format(key, bucket))
        raise e
    


def put_logs(client, group_name, stream_name_prefix, message):
    try:
        exist_log_stream = True
        log_event = {
            'timestamp': int(time.time()) * 1000,
            'message': message
        }
        sequence_token = None
        try:
            if exist_log_stream == False:
                create_log_stream_response = client.create_log_stream(
                    logGroupName = group_name,
                    logStreamName = stream_name_prefix)
                exist_log_stream = True
            if sequence_token is None:
                put_log_events_response = client.put_log_events(
                    logGroupName = group_name,
                    logStreamName = stream_name_prefix,
                    logEvents = [log_event])
            else:
                put_log_events_response = client.put_log_events(
                    logGroupName = group_name,
                    logStreamName = stream_name_prefix,
                    logEvents = [log_event],
                    sequenceToken = sequence_token)
        except client.exceptions.ResourceNotFoundException as e:
            exist_log_stream = False
        except client.exceptions.DataAlreadyAcceptedException as e:
            sequence_token = e.response.get('expectedSequenceToken')
        except client.exceptions.InvalidSequenceTokenException as e:
            sequence_token = e.response.get('expectedSequenceToken')
        except Exception as e:
            print(e)
    except Exception as e:
        print(e)

入力が完了したら「Deploy」を押下します。

次に、Lambda関数に権限を付与します。

設定>アクセス権限から「ロール名」を押下します。

IAMの設定画面に遷移しますので、「設定を追加」の「インラインポリシーを作成」を押下します。

ここで、S3に「GetObject」、CloudWatch Logsに「PutLogEvents」の権限を付与します。
ARNは環境にあったものを設定してください。ポリシー名に任意の名前を入力し、「ポリシーの作成」を押下します。

ここまで完了すると、CloudWatch Logsにログが出力されるようになります。

LogStare Collectorの構築

次に、CloudWatch Logsのログを収集できるようにLSCを構築します。

詳しい設定方法は「LogStare CollectorでのAWS WAFログの取得方法とログレポート」の「LogStare Collector側の設定」をご参照ください。

LSCの設定が完了すると、以下のようにログが見ることが出来ます。

おわりに

今回はLSCでのCloudFrontログの取得方法をご紹介いたしました。

手順は長くなってしまいましたが、S3にしか出力できないサービスのログもLSCで取得することが出来るということが分かっていただけたかと思います。

CloudFront以外のサービスのログもLSCに出力することが出来るため、AWSのログ管理にLSCをご活用いただけたら幸いです。

記載されている会社名、システム名、製品名は一般に各社の登録商標または商標です。

当社製品以外のサードパーティ製品の設定内容につきましては、弊社サポート対象外となります。

AWS ALBのログを管理するためのCloudWatch Logs設定方法前のページ

監視項目データベース更新案内(240409_01)次のページ

ピックアップ記事

  1. Zabbixヒストリデータのレポート生成について
  2. ログフォワーダー「okurun.jar」について
  3. IoT機器「Raspberry pi」とLogStare Collectorで温…
  4. 自社製品をAMIにしてAWSマーケットプレイスへ出品

関連記事

  1. cloudwatch

    AWS/Azure

    CloudWatchでデモサイトを監視してみた

    当記事は、2021年11月5日にリリースされたばかりのLogStare…

  2. AWS/Azure

    AWS ALBのログを管理するためのCloudWatch Logs設定方法

    当記事では、ログ収集ソフトLogStare Collector(LSC…

  3. AWS/Azure

    LogStare CollectorでのAWS WAFログの取得方法とログレポート

    当記事では、LogStare CollectorでのAWS WAFログ…

  4. AWS/Azure

    CloudWatchAgent(Linux)_関連メトリクス一覧

    当記事では、CloudWatch監視にて対応しているCloudWatc…

  5. Windows/Linux

    CloudWatch Logs収集に必要な権限について

    当記事では、CloudWatch Logs収集に必要な権限について記載…

  6. AWS/Azure

    NATGateway関連メトリクス一覧

    当記事では、CloudWatch監視にて対応しているNATGatewa…

月額200円でM356の監査ログの運用レベルUP LogStare M365

AWSのログ分析・モニタリングに 次世代のマネージド・セキュリティ・プラットフォーム LogStare

  1. NW機器

    SonicWall UTMにSyslog送信設定を追加する方法について
  2. AWS/Azure

    AWSマーケットプレイス上から無償版のLogStare Collectorを試す…
  3. ログ分析・監視テクニック

    nProbeであらゆる通信をログに記録し可視化する
  4. SNMPを触ってみた

    ログ分析・監視テクニック

    SNMPとは?新入社員が生まれてはじめて触ってみた!
  5. デフォルト画像イメージ

    FortiGate

    FortiGateのSD-WAN設定について
PAGE TOP