バフェット・コードは日・米の上場企業の財務分析・ファンダメンタル分析を、効率的に行えるツールです。株価・財務情報・指標など、必要な情報はすべてここに集結しています。もう煩わしい情報集めにはサヨナラを。企業分析をもっと迅速・カンタンに。
データの収集・分析・連携ができるCDP(カスタマーデータプラットフォーム)を手掛けるTreasure Dataは、グローバルでも急成長中の注目SaaS企業。2018年にはArm社へイグジットしましたが、その後、今年になって創業者たちが「出戻り」の形で経営陣につき、さらなる飛躍を目指すというニュースは、業界に驚きをもたらしました。 今でこそCDPとして名高いTreasure Dataも、実はARR 30億円の段階でピボットし、現在の姿へと変わった経緯がありました。その背景にあったストーリー、ピボット後にARR 100億円を突破するため必要だったこと、そしてカムバックの理由まで、共同創業者でCEOを務める太田一樹さんに伺います。 聞き手は、ALL STAR SAAS FUNDマネージング・パートナーの前田ヒロです。 3年でARR10億、しかしテックジャイアントの参戦で…──早速ですが、ARR3
Send feedback Stay organized with collections Save and categorize content based on your preferences. Loading CSV data from Cloud Storage When you load CSV data from Cloud Storage, you can load the data into a new table or partition, or you can append to or overwrite an existing table or partition. When your data is loaded into BigQuery, it is converted into columnar format for Capacitor (BigQuery'
PythonでBigQueryを扱う方法の詳細は下記の公式サイトを確認してください。 https://googleapis.dev/python/bigquery/latest/usage/index.html データセットを操作したい場合は上記サイトのManaging Datasets テーブル操作したい場合はManaging Tables に記載があります。 テーブルの作成 テーブル作成後にすぐにデータを入れようとすると実行されないことがあるので注意。 from google.cloud import bigquery # Colabで使う場合はPJ名の指定が必要 client = bigquery.Client() client = bigquery.Client(project=project_id) # "your-project" schema = [ bigquery.Sch
PythonとBigQueryのコラボ データ分析を行う上で、PythonとBigQueryの組み合わせはなかなかに相性がよいです。 Pythonは巨大すぎるデータの扱いには向いていませんが、その部分だけをBigQueryにやらせてしまい、データを小さく切り出してしまえば、あとはPythonで自由自在です。 問題はPythonとBigQueryをどう連携するかですが、これは大きく2つの方法があります PythonのBigQuery連携ライブラリを使う Google Cloud Datalabを使う 2は特にJupyter Notebookを使い慣れている人におすすめです。 1.PythonのBigQuery連携ライブラリを使う オススメのライブラリ PythonからBigQueryを叩くためのライブラリはいくつかあります。 例えば、BigQuery-Python、bigquery_py な
Announcing Databricks Serverless SQL: Instant, Managed, Secured and Production-ready Platform for SQL Workloads - The Databricks Blogの翻訳です。 BI、SQLに対する最低限の管理、およびコスト低減を実現するインスタントコンピューティング Databricks SQLは、すでにデータレイクに対して直接SQL、BIを実行するためのファーストクラスの体験を提供していますが、本日、我々はDatabricksサーバーレスSQLによって、データとAIをシンプルするための新たな一歩を発表できることを嬉しく思います。このDatabricks SQLの新機能は、ユーザーにBI、SQLワークロードに対するインスタントコンピューティングを提供し、管理工数を最小化し、全体のコストを
Google Professional Data Engineer認定資格の試験を受ける機会があり、無事合格できました! Google Professional Data Engineer認定資格に関する情報は少ないので、興味ある方向けに合格体験記を書こうと思います。 Google Professional Data Engineer認定資格とは? GCP(Google Cloud Platform)を使った、システム構築や運用の習熟度を認定する認定資格の1つです。 GCPの認定資格には「アソシエイト」と「プロフェッショナル」の2つのレベルがあります。 「アソシエイト」は、GCP初学者が学習動機づけのために取る形式的な資格で、実質的な外部向けの実務レベル認定資格が「プロフェッショナル」になります。 「プロフェッショナル」の資格は業務分野で別れていて、その中の1つが「Google Profe
Exploratory (https://exploratory.io/) は、シンプルなUI で多様なデータ分析ができるアナリティクスツールです。Exploratory は、多くのRDB やRedshift、BigQuery などのクラウドデータストアに対応していますが、SaaS データを分析したい場合にはCData ODBC Drivers を使うことで、API コーディング不要でデータを活用できます。今回はSalesforce を例に説明します。 Exploratory でSalesforce データを分析 CData ODBC Driver for Salesforce の設定 CData ODBC Driver for Salesforce からドライバーをダウンロードします。30日の無償版があります。 .exe ファイルをクリックしてインストールを行います。 インストール後にD
大流行中のオールインワンツール「Notion」をご存知でしょうか? SELECKでも昨年末に、基礎編・応用編・発展編にわけて「Notionの使い方」をご紹介させていただきましたが、大きな反響がありました。 一方で、少し使ってはみたものの、その万能さゆえにまだまだ使いこなせていない…という方々も多くいらっしゃるのではないかなと思います。 そこで今回は、Notionを使いこなしている8社の事例をお届けさせていただきます! どの企業も、アイデアと運用の工夫がすごく参考になります。自社にも役立つ活用法がきっと見つかると思いますので、ぜひご覧ください。 <今回ご紹介する8社の事例> 独自ドメインを設定!コーポレートサイトを自作 / Appify Technologies ワークスペースの「ポータル化」で必要な情報にアクセス / GMOペパボ テンプレを使った議事録作成の効率化から、振り返りまで /
In A Simple Approach To Templated SQL Queries In Python, I introduced the basics of SQL templates in Python using JinjaSql. This post further demonstrates the power of Jinja2 within JinjaSql templates using presets, loops, and custom functions. Let’s consider an everyday use case when we have a table with some dimensions and some numerical values, and we want to find some metrics for a given dimen
RDBを操作する際には、SQL文の組み立てが発生します。自前で文字列操作を駆使してSQL文を組み立てると、バグやセキュリティホールの温床となりかねません。 今回はMySQL Connector/Pythonからお行儀よくSQLを投げる方法を紹介します。 事前準備:MySQL Connector/Python のインストール MySQL Connector/Python のインストールは次の記事を参照して下さい。 MySQL Connector/Python 2.1をAmazon Linuxにインストールする 今回は 2.1.6 を利用します (非推奨)自前でSQLを組み立てる ナイーブにSQL文を自分で組み立て、データベースに投げてみましょう import mysql.connector config = { 'user': 'USER', 'password': 'PASSWORD',
「PythonのMySQLのInsertが遅い」 大量のデータを挿入したい場合、Insertに時間がかかる。 しかし一括でInsertすることで時間短縮することができる。 今回はそのバルクInsertについて紹介する。 一括でInsertする方法 pymysql の execute の代わりに executemany を使うと一括でInsertできる。 参考: pymysqlでbulkインサート - MasterYodaの昼下がり 検証 準備 pipで pymysql のライブラリをインストールする。 pip install pymysql MySQLのDBに検証用のテストテーブルを作る。 CREATE TABLE <code>hoge</code> ( <code>id</code> int(11) NOT NULL AUTO_INCREMENT, <code>name</code> v
目次 前提条件 動作確認環境 PostgreSQL ダウンロード PostgreSQL インストール 環境変数の追加 前提条件 動作確認環境 本ページの内容は、以下の環境で動作確認をしています。 Windows 10 Home Edition 64bit PostgreSQL 12.1 Windows 64bit PostgreSQL ダウンロード PostgreSQLのインストーラをダウンロードします。 PostgreSQLのインストーラは、「EnterpriseDB」ホームページ内の「PostgreSQL Download」ページから手に入れることができます。 EnterpriseDB PostgreSQL Download PostgreSQLインストーラのダウンロードページ ダウンロードしたいバージョンの「Download」リンクを選択し、インストーラーをダウンロードします。 今回
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く