カスタマー・レッド・グロースでビジネスの持続的成長を導く 契約はゴールではなくスタート 営業依存のプロセスから脱却し カスタマーサクセスがお客様の成果を導く 概要資料をダウンロードする
はじめに Google Cloud Data CatalogからPythonを使ってデータを抽出する機会があり、詰まったところ、TIPSなどをまとめてみました。 Data Catalogを使って何をするか 今回使用した Data Catalogの機能面をGoogleのサイトから拾ってみました。 フルマネージドでスケーラビリティの高いデータ検出およびメタデータ管理サービス。 Data Catalog は、さまざまな Google Cloud システムからアセット メタデータをカタログ化できます。 Data Catalog API を使用して、カスタム データソースと統合することもできます。 データをカタログ化したら、タグを使用してこれらのアセットに独自のメタデータを追加できます。 組織が大きく、データが増えるほどに以下のような課題が生じてくる為、それらをメタデータとしてData Catalo
はじめに データアナリティクス事業本部のkobayashiです。 GoogleCloudのETLサービスのDataflowを調査する機会があり、Google Cloud Storage(以降GCS)にあるCSVファイルをBigQueryにロードする処理をPythonスクリプトで試してみましたのでまとめます。 Dataflow | Google Cloud Cloud Storage Text to BigQuery DataflowはマネージドなApache Beam Runnerでプログラミング言語としてはJava,Python,Goを使うことができます。今回やろうとしている「Cloud Storage Text to BigQuery」に関してはGoogle提供のバッチテンプレートがありますが、このテンプレートはJavaで記述されているため使用せずPythonで実装してみます。 B
データの収集・分析・連携ができるCDP(カスタマーデータプラットフォーム)を手掛けるTreasure Dataは、グローバルでも急成長中の注目SaaS企業。2018年にはArm社へイグジットしましたが、その後、今年になって創業者たちが「出戻り」の形で経営陣につき、さらなる飛躍を目指すというニュースは、業界に驚きをもたらしました。 今でこそCDPとして名高いTreasure Dataも、実はARR 30億円の段階でピボットし、現在の姿へと変わった経緯がありました。その背景にあったストーリー、ピボット後にARR 100億円を突破するため必要だったこと、そしてカムバックの理由まで、共同創業者でCEOを務める太田一樹さんに伺います。 聞き手は、ALL STAR SAAS FUNDマネージング・パートナーの前田ヒロです。 3年でARR10億、しかしテックジャイアントの参戦で…──早速ですが、ARR3
各方面でご好評をいただいている本講義資料ですが,この度増補・改訂のうえ書籍として出版することが決定いたしました! 書籍限定の書き下ろしの3章 (約100ページ分!)を新たに追加して,2021年9月27日に発売予定です. この資料を気に入っていただいた方は,手に取っていただけるとありがたいです. ここで公開している資料は引き続きオンラインで無料で読めますので,ご安心ください🙇
こんばんは、エンジニアの眠れない夜です。 ここではGoogleCloudPlatformのCloudStorageにPythonからファイルをアップロード・ダウンローする方法をご紹介します。 分かってしまえばなんて事のない事なのですが、なかなかファイルのアップロードとダウンロードができなくて何時間も費やしてしまいました。 このブログを読んでくださる方は5分もあればCloudStorage(クラウドストレージ)にファイルの保存、取得ができるようになります。 CloudStorage(クラウドストレージ)の概要 クラウドストレージにアクセスするにはサービス アカウントというクラウドストレージにアクセスするためのアカウントとバケット(ストレージ)を作成します。 作成したアカウントの認証キーを使って認証を行います。 あとはストレージにPythonプログラムからアクセス実行するだけ。 という3ステッ
Send feedback Upload objects from a file system Stay organized with collections Save and categorize content based on your preferences. This page shows you how to upload objects to your Cloud Storage bucket from your local file system. An uploaded object consists of the data you want to store along with any associated metadata. For a conceptual overview, including how to choose the optimal upload m
※この投稿は米国時間 2021 年 3 月 13 日に、Google Cloud blog に投稿されたものの抄訳です。 この投稿を音声でお聞きになる場合は、こちらのポッドキャストをご確認ください。 クラウドでは、ファイルは複数の方法で提供できます。本投稿では、Cloud Storage からデータを提供する方法をすべてご紹介します。その中からご自分のニーズに最適な方法を見つけてください。 Cloud Storage は顧客にアセットを提供するために活用できます。Cloud Storage バケットからデータを取得するには、ご利用のアプリケーションに応じて、さまざまな方法があります。この投稿では、このようなアセットを提供するための 4 つの方法をご説明します。より詳細な情報については、こちらのドキュメントをどうぞお読みください。また、アップロードとダウンロードに関する一般的なコンセプトにつ
こんにちは。中山です。 Google が提供する機械学習プロダクトのひとつである、Cloud Natural Language API。 与えられたテキストの「構造」と「意味」を分析することができる、というこの API を使いまして、今回は、 「飲食店のレビューのコメント内容から読み取れる感情と、その星の数には、相関関係があるのかどうか」 ということについて、検証にチャレンジしてみたいと思います。 検証の方針 Cloud Natural Language API を使ってみる 1)Cloud Natural Language API を有効にする 2)プロジェクトの作成 3)API Exploer を起動 4)API Exploer から API を呼び出す 5)感情分析の結果を確認する 飲食店レビューコメントを感情分析する 1)検証対象の選定 2)検証結果 まとめ 検証の方針 Cloud
こんにちは! Webフロントエンドエンジニアの眞野 隼輔です。 毎年大きな反響を頂いている、エンジニアコースの新人研修の内容を紹介させていただきます。 研修の概要 リクルートでは、エンジニアコースでスペシャリスト採用された新卒のエンジニアを対象に、現場で培われた「本当に必要な生きた知識・技術」を取り入れた新人研修を開催しています。 前半は研修では各分野に長けた社員による講義形式の技術研修を行い、後半は仮配属という形でそれぞれ別の部署に配属されて実際の業務を経験するOJTとなっています。 この技術研修はそのほとんどが内製されており、ベテラン社員による経験を元にした講義を通して生きた知識・技術を獲得できます。また、実際に手を動かす演習型の講義ではベテラン社員からのレビューやフィードバックを得られるため、知識の定着や更なる成長へと繋がります。 本年度の技術研修も、昨年度に引き続きフルリモートでの
Google Professional Data Engineer認定資格の試験を受ける機会があり、無事合格できました! Google Professional Data Engineer認定資格に関する情報は少ないので、興味ある方向けに合格体験記を書こうと思います。 Google Professional Data Engineer認定資格とは? GCP(Google Cloud Platform)を使った、システム構築や運用の習熟度を認定する認定資格の1つです。 GCPの認定資格には「アソシエイト」と「プロフェッショナル」の2つのレベルがあります。 「アソシエイト」は、GCP初学者が学習動機づけのために取る形式的な資格で、実質的な外部向けの実務レベル認定資格が「プロフェッショナル」になります。 「プロフェッショナル」の資格は業務分野で別れていて、その中の1つが「Google Profe
東京大学がちょっとびっくりするくらいの超良質な教材を無料公開していたので、まとめました Python入門講座 東大のPython入門が無料公開されています。scikit-learnといった機械学習関連についても説明されています。ホントいいです Pythonプログラミング入門 東京大学 数理・情報教育研究センター: utokyo-ipp.github.io 東大のPython本も非常にオススメです Pythonによるプログラミング入門 東京大学教養学部テキスト: アルゴリズムと情報科学の基礎を学ぶ https://amzn.to/2oSw4ws Pythonプログラミング入門 - 東京大学 数理・情報教育研究センター Google Colabで学習出来るようになっています。練習問題も豊富です https://colab.research.google.com/github/utokyo-ip
★ゼロからAWSの重要サービスを使いこなせるように!実際にネットワークやサーバーを構築し、インフラの基礎概念を習得します 本講座は、「はじめてAWSを学ぶ方」や「インフラにあまり詳しくない方」を対象に、「AWSの重要サービスを使い、自分でネットワークやサーバーを構築できるようになる」ことを目指したコースです。 セクションごとに、インフラの基礎概念を学びながら、手を動かし実際に構築していく、という構成になっています。 ★ 本講座が目指すこと 1. AWSの重要サービスに焦点を当て、AWSの基本的な考え方から使い方を身に付けます はじめてAWSを学ぶ方、AWSを使用してネットワーク・サーバを構築したいアプリケーションエンジニアを対象に、AWSの基本的な考え方や設計、構築方法を習得します。 AWSのサービスはどれを使えばよいかわからないくらいに種類が多いです。 そこで、よく使われるサービスをピッ
クラウドの多くでは、1年程度の無料トライアルやクーポンなどに加えて、期間の制限なくずっと無料で使える、いわゆる「Free Tier」や「Always Free」と呼ばれる無料枠のサービスも提供されています。 こうした無料枠は開発環境やテスト環境としてクラウドを試すうえで非常に有効です。ここではクラウドのFree TierやAlways Freeとして提供されているおもなサービスをまとめました。 Amazon Web Services(AWS) 「AWS 無料利用枠」のWebページを開き、左側にあるフィルター条件で「無期限無料」をチェックすることで、無期限に無料で提供されるサービスの一覧を見ることができます。 おもに次のようなサービスが無期限無料で提供されています。 AWS Lambda サーバレスコンピューティングの実行環境を提供します。 1カ月あたり100万リクエスト、最大320万秒コン
※「AutoML Tables┃Google Cloud」より引用 とりあえず機械学習に触れてみたいという方にとって、基本無料で利用できるというのは非常に魅力的でしょう。 GoogleAutoML Tables を実際に使ってみた 最後にGoogleAutoML Tableの体験デモを機械学習初心者の筆者が実際に行ってみた手順と感想をご紹介します。 なお、デモの内容や手順は「クイックスタート」に従っています。 手順1:GoogleAutoML Tablesを有効化する まずは、Google Cloud Platformに登録し、GoogleAutoML Tablesを有効化します。 Google Cloud Platform登録時には支払元のクレジットカードを登録する必要がありますが、料金が自動的に発生することはありません。 手順2:データをインポートする続いて機械学習の対象となるデータを
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く