[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

あめがえるのITブログ

頑張りすぎない。ほどほどに頑張るブログ。

【AWS】1/17(金) S3 テーブルが新たに 5 つの AWS リージョンで利用可能


2025/1/17(金) S3 テーブルが新たに 5 つの AWS リージョンで利用可能
aws.amazon.com

アップデート内容

S3 テーブルが、欧州 (フランクフルト)、欧州 (アイルランド)、欧州 (ロンドン)、欧州 (ストックホルム)、アジアパシフィック (東京) の 5 つの AWS リージョンで利用できるようになった。

S3 テーブルとは

Apache Iceberg のサポートが組み込まれた初のクラウドオブジェクトストアであり、大規模な表形式データを保存する最も簡単な手段を提供。Glue データカタログとの S3 テーブルの統合はプレビュー段階であり、Amazon Data Firehose、Athena、Redshift、EMR、QuickSight などの AWS 分析サービスを使用して、データのストリーミング、クエリ、視覚化を行うことができる。

S3にテーブルバケットなるものが追加されてます。

【AWS】StepFunctionを使ってみた


StepFunctionにサンプルでHelloWorldを実行できるようなのでやってみた。

実践!

1.ステートマシン作成
1-1.AWS - Step Functions
1-2.「今すぐ始める」

1-3.「Hello World を実行」

1-4.「開始」

1-5.「次へ」

1-6.「次へ」

1-7.「次へ」

1-8.「完了」

1-9.「作成」

1-10.「実行を開始」

1-11.「実行が正常に開始されました」と表示されることを確認

1-12.「実行の入力と出力」を選択し、「状態の出力」にSummaryが表示されることを確認

【AWS】1/14(火) EC2 Image BuilderでWindows ISO ファイルのAMI変換作業簡素化


2025/1/14(火) EC2 Image BuilderでWindows ISO ファイルのAMI変換作業簡素化
aws.amazon.com

アップデート内容

EC2Image Builder で、Microsoft Windows ISO ファイルを Amazon マシンイメージ (AMI) に直接変換できるようになった。いままでISO ファイルを AMI に変換する既存のプロセスでは、時間のかかる手動の手順と複数のツールの知識が必要となり運用上のオーバーヘッドが高かったが、Windows ISO ファイルをシームレスにインポートできるようになった。

AWS - EC2 Image Builder - 「イメージ」-「イメージをインポートする」


「ISOインポート」から行える模様。
※Windows11が対象の模様。
S3にアップして取り込む。

【AWS】1/13(月) Security Hub が Amazon Route 53 Resolver DNS ファイアウォールと統合


2025/1/13(月) Security Hub が Amazon Route 53 Resolver DNS ファイアウォールと統合
aws.amazon.com

アップデート内容

Amazon VPC から悪意のある疑いのあるドメインや、低評価と特定されたドメインに対して行われた DNS クエリのセキュリティ結果を受け取ることができる。今回のアップデートでAWS Security Hub では、AWS アカウント全体のセキュリティアラートとコンプライアンスステータスを包括的に確認できるようになり、Amazon GuardDuty、Amazon Inspector、Amazon Macie などの複数の AWS サービスからの検出結果とともに、悪意のある DNS クエリに関連付けられている可能性のあるアカウントのセキュリティ結果が 1 か所で確認できるようになった。

【AWS】1/10(金) Webコンソールのマルチセッションサポートについて


2025/1/10 (金) Webコンソールのマルチセッションサポートされたので調べてみた。
docs.aws.amazon.com


AWSにログインし、アカウントを選択すると「マルチセッションサポートをオンにする」が追加されている。


マルチセッションサポートをオンにする」をクリックすることで利用可能になる。
※別アカウント・別セッションでログインしてみたがオフの状態だったのでほかアカウントには影響することはなさそう。
※サインアウト・サインインしてもオンの状態は継続


セッションを追加したい場合は「セッションを追加」から行う。
マルチセッションのオフもいつでも可能



感想

ほしかった機能だけどなんか違う・・・
混乱しないように今まで通り別ブラウザで起動するのがいいかな。

【AWS】SageMakerノートブックスで決定木(XGBoost)をやってみた


SageMakerノートブックスで決定木(XGBoost)をやってみた

実践!

1.環境をセットアップ
 ・S3バケット作成
 ・SageMaker用IAMロール作成
  ※作成したS3バケットへの読み取り権限を付与
   面倒であればフルアクセスをどうぞ
 ・SageMakerノートブックを起動

2.変数準備

import boto3
import sagemaker

# 共通の変数定義
bucket = "sagemaker-1234567890000"  # S3バケット名(事前に作成)
prefix = "train"                 # データ保存用のプレフィックス
region = boto3.Session().region_name  # 現在のAWSリージョン
role = sagemaker.get_execution_role()  # SageMaker用IAMロール



3.データ準備

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
import pandas as pd

# データのロード
iris = load_iris()
data = pd.DataFrame(data=iris.data, columns=iris.feature_names)
data['label'] = iris.target

# データ分割(80%: トレーニング, 20%: テスト)
train_data, test_data = train_test_split(data, test_size=0.2, random_state=42)

# ラベルを最初の列に移動(XGBoostの形式に合わせる)
train_data = pd.concat([train_data['label'], train_data.drop(columns=['label'])], axis=1)
test_data = pd.concat([test_data['label'], test_data.drop(columns=['label'])], axis=1)

# CSVとして保存(ヘッダーなし)
train_data.to_csv("train.csv", index=False, header=False)
test_data.to_csv("test.csv", index=False, header=False)



4.S3へアップロード

# S3クライアントの初期化
s3 = boto3.client("s3")

# データのアップロード
s3.upload_file("train.csv", bucket, f"{prefix}/train.csv")
s3.upload_file("test.csv", bucket, f"{prefix}/test.csv")

print(f"トレーニングデータのアップロード先: s3://{bucket}/{prefix}/train.csv")
print(f"テストデータのアップロード先: s3://{bucket}/{prefix}/test.csv")



5.XGBoostトレーニングジョブ実行

from sagemaker.inputs import TrainingInput

# トレーニングデータとテストデータの入力
train_input = TrainingInput(s3_data=f"s3://{bucket}/{prefix}/train.csv", content_type="csv")
test_input = TrainingInput(s3_data=f"s3://{bucket}/{prefix}/test.csv", content_type="csv")

from sagemaker.estimator import Estimator

# XGBoostコンテナイメージURIを取得
container = sagemaker.image_uris.retrieve("xgboost", region, "1.5-1")

# トレーニングジョブの設定
xgboost_estimator = Estimator(
    image_uri=container,
    role=role,
    instance_count=1,
    instance_type="ml.m5.xlarge",
    output_path=f"s3://{bucket}/output",  # トレーニング成果物の保存先
    hyperparameters={
        "max_depth": 5,
        "eta": 0.2,
        "objective": "multi:softprob",  # 多クラス分類
        "num_class": 3,                # クラス数
        "num_round": 50,               # 学習ラウンド数
    },
)

# トレーニングの実行
xgboost_estimator.fit({"train": train_input, "validation": test_input})




6.モデルデプロイ

# モデルのデプロイ
predictor = xgboost_estimator.deploy(
    initial_instance_count=1,
    instance_type="ml.m5.large"
)



7.推論実行

# サンプルデータ(テストデータの1つ目のサンプル)
sample_data = test_data.iloc[0, 1:].tolist()  # 特徴量のみ取得

# 特徴量をカンマ区切りの文字列に変換
sample_data_csv = ",".join(map(str, sample_data))

# 推論リクエスト
response = predictor.predict(
    sample_data_csv,
    initial_args={"ContentType": "text/csv"}
)

print("推論結果:", response)



8.クリーンアップ

# エンドポイントの削除
predictor.delete_endpoint()




感想

腹減った・・・

【AWS】1/7(火) DynamoDBでポイントインタイムリカバリ期間の変更サポート


2025/1/7(火) DynamoDBでポイントインタイムリカバリ期間の変更サポート
aws.amazon.com

変更箇所

以前


バックアップ期間を選択できるプルダウンが表示されるようになった。作成後に変更も可能。



感想

35日以外選べれないのがなんか強制されているみたいで嫌だったんよね。(;´∀`)