[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

「続ける思考」で人生が変わった:5分勉強と30分運動の9ヶ月

この記事はpyspa アドベントカレンダー 2024の9日目です。

今回は、「続ける思考」という本を読んで実践したことで、自分の生活がどのように変わったかについて書いていきたいと思います。

はじめに

子どもができてから、自分の時間を作ることが本当に難しくなりました。勉強も運動も全然できていない状態が続いていましたが、「続ける思考」を読んでから、毎朝5分の勉強と30分程度のランニングを3月からずっと続けています。正直、こんなに続くとは思っていませんでした。

「続ける思考」のコンセプト

「続ける思考」の基本的なコンセプトは以下の通りです:

  1. とにかく継続することだけを目標にする
  2. 目標に対する期限を設定しない(例: 今年中に〇〇を勉強し終える、3か月で3kgやせる、など)
  3. 決めた時間にやる

私なりのアレンジとしては、「変化をつける」ことを意識しています。これは飽きないようにするためです。

9ヶ月の成果

勉強

9ヶ月で約250日勉強しました。つまり、最低でも1250分(約20時間)の勉強時間を確保できたことになります。1日1時間で20日勉強しようと思ったら、多分達成できなかったでしょう。

実際には、これを日課としつつ、時間が確保できたときにはもっと勉強時間にあてているので、トータルの勉強時間はずっと多くなっています。

運動

始めたころは1km走るだけで疲れていましたが、今では1日3kmを当たり前のように走れるようになりました。

続ける思考メソッドに基づく勉強法

ツール

  • Notion (記録用)
  • AI (6月からずっとClaude 3.5 Sonnetを使っている)

手順

  1. 大きなゴールを決める(例: 〇〇のアプリを作る、〇〇の資格を取る、etc.)
  2. 自分のスキルを書き出す
  3. 自分がもっていないスキルを書き出す
  4. AIを使って学習プランを作成する
  5. 毎日やる
    • その日何をしたか、次の日何をするかは必ず書いておく

AIを使った学習プラン作成

以下のようなプロンプトを使っています:

#私のスキルと、#私が持っていないスキルに基づき、#ゴールを達成するための勉強プランを作ってください。

# 私のスキル

# 私が持っていないスキル

# ゴール

Notionでのプロジェクト管理

Notionのプロジェクトテンプレートを使って、学習プランに基づいたプロジェクトとタスクを管理しています。各タスクには終了条件を書いておくのがおすすめです。

日々の勉強

  1. タスクを開く
  2. 今日の日付を見出しにする
  3. 勉強する
  4. 勉強したことをNotionに簡単に書いておく
  5. 明日やることをNotionに簡単に書いておく

勉強は本当に少しでいいです。本を読むなら1ページとかでも構いません。予習も復習もいりません。

続ける思考メソッドに基づくランニング

必要なもの

  • ランニング用のスポーツウェアと靴
  • フィットネストラッカー(おすすめ)
  • 運動アプリ(私はFreeleticsを使用)

フィットネストラッカーはずっとFitbit使ってます。以前はChargeを使ってましたが最近はInspireで十分だと思ったので買い換えました。

Freeleticsは過去記事でも紹介しているので詳細はそちらを参照してください。

shiumachi.hatenablog.com

場所と時間

屋外で朝に走るのがおすすめです。人が少なく、夏も涼しいです。

手順

  1. 着替える
  2. 外に出る
  3. 走る
  4. 帰宅する

走る距離

最も重要なのは以下の2点です:

  • 楽な距離しか走らない
  • ちょっとづつ変化をつける

私の場合、以下のような感じで距離を伸ばしていきました:

  1. 毎日100m 1セット増やす(100m 走ったらインターバル)
  2. 100m 3セット走ったら、その次の日は100m 3セットの代わりに200m 1セット走る
  3. 200m 3セット走ったら、その次の日は200m 3セットの代わりに400m 1セット走る

負荷とインターバル

楽なスピードで走ることを徹底し、インターバルは30秒から1分くらい取ります。私は適当なアプリやゲームの広告を流して、インターバルの時間としています。

冬は寒いんだけど?

以下の習慣を導入しました。

  • ランニング前にストレッチの時間を取り、出発直前に白湯を飲む

これだけで全然気持ちが楽になりました。

さらに追加した週間

最近、さらに以下のような習慣をはじめました。

  • 寝る前に白湯を飲む
  • 起きたら白湯を飲む
  • カフェインを抜く
  • 朝起きたら1分間瞑想する
  • その後1分間ストレッチする

これだけでも心身ともに随分楽になります。

おわりに

「続ける思考」を実践することで、9ヶ月前には想像もしなかった状態になれました。小さな積み重ねが、大きな変化をもたらすことを実感しています。皆さんも、自分なりの「続ける」を見つけて実践してみてはいかがでしょうか。

オブザーバビリティと私

この記事はpyspa アドベントカレンダー 2024の5日目です。

この夏くらいからずっとオブザーバビリティに携わってきました。

その前からトレースを使うくらいのことはしていましたが、夏ごろにオブザーバビリティスタックの管理担当者が忙しすぎてメンテができなくなり、そのタイミングでJaegerが落ちたので「じゃあ私の方でメンテを引き継ぎます」と言って、そこから本格的に勉強を始めました。

これは本当にベストな出会いのタイミングだったなと思っています。本当に自分が必要とする瞬間に勉強の機会が得られたので、オブザーバビリティの価値がどんどん頭に流れ込んでいきました。

今年1年で出会った技術トレンドの中で何を一番に挙げるかと聞かれたら、AIではなくオブザーバビリティと自信を持って答えられます。

私がオブザーバビリティに感動した理由は、私のビッグデータのバックグラウンドが関係していると思っています。

「データは嘘をつかない」という幻想

私がかつてビッグデータの世界に足を踏み入れたとき、データドリブンという言葉にとても共感していました。そのとき、「(人は嘘をつくかもしれないが)データは嘘をつかない」と信じていました。

しかし、これは後に自分自身でその信仰を否定することになりました。

まず第一に、どのデータをどのように取得するかは人間が決めることです。つまり、データは人間によって恣意的に収集されている、という現実があります。人間が決めている以上、そこには主観が入っています。なので、その時点でデータが完全な中立的概念ではなくなります。

次に、データの見せ方、つまり計算式やグラフや表などについても、人間の主張が入り込みます。データを絶対値でみせるのか割合で見せるのか、棒グラフで見せるのか(悪名高い)3D円グラフで見せるのかも人間が決めることです。データが正しくても見せ方によって主張が変わってきます。

そして、そのプレゼンテーションを見た人の解釈も人によって変わります。何に着目するかによって意味が変わってきます。

このようなことを学んでいった結果、データは嘘をつかないというのは幻想でしかなく、つまり大量のデータがあったところでそこから生まれるのは別の主観的情報でしかない、ということに気づきました。

オブザーバビリティの世界とデータドリブン

オブザーバビリティの世界も、その前提からは完全に逃れることはできません。しかし、少なくともビジネスデータを扱う世界よりもはるかに中立的なデータを取り扱うことができると感じています。「APIのリクエスト数」や「APIの実行時間」に恣意的な操作が入る余地はほとんどありません。

だからこそ、データから導き出される結論が比較的強固なものになるなと感じています。だれがどういう意図をもっていようとも、ある関数の実行時間がボトルネックになっていることや、あるAPIのエラーレートが高い、という事実は覆せないのです。

なので、オブザーバビリティの世界はデータドリブンの世界を理想としていた私にとってとても相性のいい分野だなと感じています。

次はどうするのか?

もうしばらくオブザーバビリティの世界を旅して、この分野について深く学んでいこうと思います。オブザーバビリティの概念は今後も長く使えるので、ここできっちりと学んでおいて損はない、と感じました。

AIを使った技術ドキュメントの読み方

この記事はpyspa アドベントカレンダー 2024の4日目です。

私がここ一年くらいやっている、AIを使ったドキュメントの読み方についてまとめます。

利用環境

ここ最近はClaude 3.5 Sonnet Newを使っています。この記事に挙げる手法は他のAIでも問題なく使えると思いますが、ClaudeのProjects機能があると楽に使えます。

対象となるドキュメント

主にソフトウェアの公式ドキュメントなどの、まとまった技術文書を読むことを想定していますが、他の文書に対しても応用できます。

なぜ「読む」のか?

必要な知識を検索したいだけであれば、既存の検索システムを使うなり、文書をAIに投げて質問するだけなので、従来の方法で読む必要はありません。

それでも文書を読むのは、脳内のモデルを更新したいからです。

対象となる文書についての概念を頭の中で作り上げられないと、正しい質問ができません。つまり、AIに対するプロンプトが書けません。

正しい質問をするために、概念を頭にインストールする必要があります。そのための最短距離の方法は、大量に情報を頭に流し込んでいくことだと思っています。LLMの作り方と大して変わりません。

ただ大量に読むといっても、意味を理解せずに流し読みしても意味がありません。頭の中で最低限概念を理解できる程度の読み方をする必要があります。

準備

自分自身に関する情報を用意します。これはAIに事前情報として渡します。ClaudeならシステムプロンプトあるいはKnowledgeに入力しておきます。

ハードスキル

Python 5年、TypeScript 3年、みたいに自分のスキルを並べていきます。「Rustは全く触ったことがないのでわからない」みたいに自分が持ってないスキルを明示するのもいいです。

教え方

「すぐ使えるコードの例がほしい」「技術背景について詳細に解説してほしい」など、出力してほしい内容を書いておきます。

ゴール

どんな目的で文書を読むのかを書いておきます。「趣味の学習のため」「〇〇というアプリを作りたいため」「××というプロジェクトを成功させるため」などを書いておきます。

読書開始

目次を読む

これはオンラインの文書に限らず書籍でも同じですが、まず目次は精読します。目次は全体構造を理解するための最適な要約なので、これを頭に入れるのが重要です。オンライン文書なら左メニューなどに目次があることが多いのでそれに目を通します。

文書をAIに要約させる

この部分はオリジナルの言語(大抵の場合は英語、たまに中国語)でいいです。日本語の文章を選ぶ必要はありません。

最初のページを開き、その内容を全てコピーしてAIに入力し、「この文書を私のスキルセットやゴールに基づいて解説してください」と入力します。

そうすれば、自分に対して特化した内容で文書の解説が出力されるのでそれを読みます。

文書を読む

この状態で、あらためて文書を頭から読みます。完全に理解する必要はないです。流し読みだと読み飛ばしてしまうので、読み飛ばさない程度の速度で読みます。とにかく頭に流し込んでいくイメージでひたすら読んでいきます。音読するのもいいと思います。

やらなくていいこと

考える

頭に入れる、というと「文章の内容を読んで考察する」みたいなことをイメージしがちですが、ここで行いたいのは脳内モデルの構築なので今の時点ではその必要はありません。とにかく機械的に読んでください。

復習する

これも同じです。頑張って記憶に定着させる必要はないです。AIに質問できるレベルでなんとなく質問できるようになるのが目的なので丸暗記する必要はないです。

つまみ読みする

人間だけで読むときのくせでつい興味のあるところだけ読んで他を読み飛ばしてしまいがちですが、これは脳内モデルが構築できている人の読み方なのでおすすめしません。普段は読まないようなページやセクションであっても端から端まで読んだ方がいいですし、この方法なら比較的短時間で全部読めます。

OpenTelemetry Meetup 2024-11 参加レポート:実践的なObservabilityの実装と運用 #oteljp

先日、OpenTelemetry Meetup 2024-11に参加してきました。久々のオフラインイベントで非常に楽しく、参考になる話が多かったので久しぶりに参加レポートブログ記事を書くことにしました。

イベントページ

opentelemetry.connpass.com

OTel Collector (多段構成)で TailsamplingとSpanMetricsを両立させる

speakerdeck.com

(gumamon33さん)

多くの組織では、問題のあるリクエスト(エラーや遅延など)に関連するトレースの収集が重要課題となっています。この課題に対してTailsamplingは効果的な解決策となりますが、OTel Collectorを分散構成で運用する際には注意が必要です。

直面した課題

  • エラーのないspanが欠損するリスク
  • SpanMetricsの集計精度の確保

提案された解決策

  1. 処理順序の最適化
    • SpanMetrics → Tailsamplingの順序で処理を行う
  2. Loadbalancing Exporterの活用
    • トレースIDのハッシュ化により同一podへの振り分けを実現
    • 2段目のOTel Collectorは1podにつき1serviceの構成
  3. 運用面での工夫
    • 単一のHelm Chartによる多段構成の管理
    • AttributesProcessorによるpod名の追加で重複を回避

実装時の注意点

特にSpanMetricsの実装では以下の点に注意が必要

  • Nginxでの計装時にはラベルの爆発に注意
  • 適切なattribute設定による制御が重要

OpenTelemetryとSaaSの“良いとこ取り”で構築する柔軟なオブザーバビリティ基盤

speakerdeck.com

(ymtdzzz さん)

主要なポイント

  1. ベンダー依存SDKからの脱却
    • 移行コストの最小化
    • 柔軟な運用の実現
  2. 効果的なログとトレースの紐づけ
  3. Resource Detection Processorの活用
    • Platform固有の情報をResource Attributesとして活用
    • Container Optimized OSとの関係性についての考察

実践的な実装例

  • pgcat(Rust製PostgreSQL connection pooler)の活用
  • prometheus endpointからのメトリクス収集
  • OTel collectorのprometheus receiverによる効率的なデータ収集

デンソー工場IoTにおける世界中からのテレメトリー収集の取り組み

(澤田さん、吉井さん、中尾さん)

システム要件

  1. データの完全性確保
    • データロスト0の実現
  2. グローバル監視要件
    • 世界中の工場でのデータ処理状況の把握
    • F-IoTシステムの稼働状況モニタリング

OTel Collector導入の経緯と成果

2021年の状況

  • FluentdとIstio経由でのPrometheus Pushgateway活用
  • Google Cloudでの運用
  • 工場側でのテレメトリフィルタリング

2022年の改善

  • Pushgatewayのメモリ問題(6GB超でOOM)への対応
  • OTel Collectorへの移行(約1ヶ月で完了)

実装のハイライト

  • health_check extensionの活用
  • 設備ごとのエッジPC死活監視
  • データ欠損の定期確認(1日1回)
  • エッジでの1週間のデータ保持
  • 10-15分のデータ欠損でアラート発報

QAセッション

(登壇者全員)

死活監視や可用性向上施策

  • サイドカーを使う人もいればDaemonsetを使う人もいる
  • k8sのself healingによる自動リカバリーに頼る
  • エッジPrometheusによる別系統監視

その他の考慮点

  • セマンティックコンベンションへの対応
    • ベンダー製品からの移行などで最低限対応する程度で問題なく動いた
  • 負荷試験の実施
  • キャパシティプランニング
    • システム全体の規模が見えている場合はそこまでスパイクは気にしなくてもいい

まとめ

本Meetupを通じて、OpenTelemetryの実践的な活用事例を学ぶことができました。特に印象的だったのは以下のような点です。

  1. OTel Collectorの高度な活用可能性と運用の複雑さのバランス: OTel Collectorを使いこなせば高度な運用ができるというのを実感しました。一方で、OTel Collectorだけでもシステムの複雑さがかなり増していくので、今のシステムの業務価値に見合ったレベルのものなのかは慎重に考えていく必要があるなと感じました。
  2. 実運用環境での具体的な課題解決アプローチ: 監視やフィルタリング、製品乗り換えなどについて非常に参考になりました。こうした知見は本番で稼働していなければ得られないものなので大変ありがたいです。
  3. グローバル規模での実装事例における実践的な知見

数年ぶりのオフライン勉強会だったけどすごい楽しかったです。F2Fじゃないと味わえない体験があるなと感じました。これからはもう少しオフライン勉強会に顔出す機会を増やそうと思います。 主催者・登壇者の皆様、本当にありがとうございました。

10年ぶりくらいの日本オラクル社屋は本当に懐かしかったです。ここで行ったイベントに始まる出会いがなければ今の自分はないので、そういう意味でも会場提供の日本オラクル様には大変感謝しています。

ペーパードライバー卒業への道

(DALL-E3によって生成しました)

この記事はpyspa アドベントカレンダー 2023の4日目です。

昨日は@tokibitoでした。

ペーパードライバー

私は20年前に免許を取って以来、車を運転したことは片手で数えられるレベルの完璧なペーパードライバーでした。

結婚して子供ができてからも旅行はいつもタクシーや公共交通機関を利用していましたが、今回は軽井沢へ旅行をすることになったので、久々に車を運転してみることにしました。

準備

運転に関してはほぼ初心者だった私は、以下のステップで準備を進めました。

ペーパードライバー講習

実際の車を使用して、基本的な操作や運転のコツを学びました。

ペーパードライバー講習は現地にいかなくてもわざわざ近くまで車で来てくれて、最後は自宅前で終了できるという非常に便利なものでした。

また、子供を連れて乗ってもOKとのことだったので(チャイルドシートも用意してくれる)、夫婦そろってペーパードライバー講習を受けることができました(妻もペーパードライバーだった)

ETCカードの手配

高速の運転練習をしたかったので、この機会にETCカードを発行しました。

ボタン1つで発行できて、1週間ほどで自宅に届きました。

驚くほど簡単でした。

www.jal.co.jp

レンタカーの手配

ペーパードライバー講習で使った車がプリウスだったということもあり、トヨタレンタカーを使ってプリウスを選択することにしました。

Web上では特に本人確認等もなく、かなりスムーズに予約することができました。

rent.toyota.co.jp

車の説明書を読む

車の機能が多すぎて一発で覚えるのは不可能ですが、やらないよりマシと思ってプリウスの説明書600ページ超に目を通しました。

manual.toyota.jp

YouTubeを使った予習・復習

YouTubeには車の操作についての動画もたくさんあるので、それらを見て予習していました。


www.youtube.com

Googleストリートビューでの経路の確認

当日どのように移動するかをシミュレーションしながら、その経路にそってGoogleストリートビューを眺めてみて、どのようなものが見えるのかを確認していきました。

それにより、例えば「家の前の道は普段は右折可能だが平日7:30 - 9:30は右折禁止となるのでこのルートは使えない」など、普段の徒歩生活では気づけなかった問題も洗い出すことができました。

車につけるアクセサリーの手配

子供を数時間もチャイルドシートに縛り付けるので、子供の退屈しのぎをどうするかが課題でした。

普段家ではあまり動画等を見せていないのですが、今回はやむなしということで動画閲覧用のアクセサリーを導入することにしました。

当日

往路

首都高が難しいというアドバイスを友人からもらっていましたが、本当にその通りで首都高が一番大変でした。

ただでさえ慣れない運転をしている上に、子供も乗り慣れていなくて車酔いして泣いたりしていて、その状態で平静を保ちながら運転するのが一番きつかったです。

後でFitbitの記録を見たら、首都高を抜けるまでの間は心拍数的に運動をしていたことになっていたようです。

自分と子供の疲労回復のために、こまめな休憩をとって移動していたのですが、それが裏目に出て軽井沢の市街に着いた頃には日が落ちてしまいました。

そこからさらに山の中の目的地に移動しなければならないのですが、さらに悪いことに雨も降ってきていました。

雨で真っ暗の中の山道を運転するのはかなりハードでした。

道路の中心線もかすんで見えない状態だったので、とにかく低速での安全運転を心がけてなんとかたどり着くことができました。

復路

慣れたこともあり、往路よりはだいぶスムーズに帰ることができました。

関越道を走行中にPAで昼食休憩して、その後出発したときに太陽の日差しがポカポカと温かく感じたので、直感的にこれは危険だと感じました。

多少の慣れで緊張感が緩んできたので、眠気がきそうな気配を感じたのです。

これはまずいと思ったので、走行して10分程度ですぐに次のPAで休憩しました。

首都高に入った後は、友人からのアドバイス通り山手トンネルを使いました。ほぼ一直線なので本当に楽でした。

終わりに

普段から運転に慣れている人にとってはバカバカしい内容だったかもしれませんが、慣れていない自分にとっては常識のようなことも全然わからないので大変でした。

ペーパードライバーを卒業したい人は参考にしてみてください。

ChatGPTで個人開発を爆速にする

ChatGPTが登場してから始めての大型連休で、自分も久々にまとまった時間がとれたので個人開発をしていました。

ほこりがつもったソフトウェアプロジェクトを取り出すと、大抵の場合はライブラリのアップデートや連携サービスのアップデート対応などに時間を費やしてしまい、せっかくの貴重な休日を環境構築だけに費やすというのが大変憂鬱でした。

しかし、ChatGPTのおかげでこうした個人開発も全く苦ではなくなりました。

以下、自分が取った方法を説明します。

ここでは、個人のプライベートリポジトリでの開発プロジェクトを想定しています。 OSSの場合はこの方法をそのまま適用すると色々課題があると思うのでご注意ください。

方法

  1. GitHub(または類似サービス)を開きます。
  2. 大量のIssueを登録します。登録方法のコツは後述します。
  3. 各Issueに対してChatGPTに質問し、回答結果をコピーしておきます。
  4. Issueを一つずつ解決していきます。ポモドーロタイマーを使って、1-2個のIssueを1ポモドーロで解決すると効率が良いです。
  5. 作業中に新たな問題やアイデアが見つかった場合は、全てIssueに追加します。

Issue登録のコツ

  • あまり真面目に書かない: 個人プロジェクトなので、簡潔に書いても大丈夫です。重要なのは、忘れないようにIssueに記録することです。
  • タグ付けは真面目に行う: どのIssueに取り組むかを決める際に参考になるため、タグ付けは丁寧に行いましょう。例えば、バグと改善案を分けるだけでも役立ちます。
  • 細かく分ける: 複数のエラーが同時に発生していても、それぞれが別のエラーであればIssueを分けましょう。

結果

こんなフローでやるだけで、圧倒的に生産性が変わりました。 自分の場合、数年前に作って放置してたソフトウェアプロジェクトを取り出して作業したら、1日でIssueを35個登録し、18個クローズできました。

それだけでなく、退屈な環境構築問題潰しの時間も減るのでモチベーションも上がり、さらに作業が明確になったIssueリストが残るので休暇が終わってもスキマ時間に作業しやすくなり、継続的な開発のモチベーションが上がります。(多分。まだ休暇明けてないので希望的観測)

もう一つ気づいたのが、ChatGPTによる教育効果です。

ChatGPTの結果をコピペするだけでも、きちんと内容を理解していくことでかなりの勉強の効果を感じました。

今までだと環境構築などで色々回り道をして、へとへとになってようやく正解にたどりつく、みたいにしていましたが(それももちろん勉強になることは知っていますが)、確実に問題の本質をとらえ、それに対する解説をしてくれると勉強効率が桁違いです。

「それでも地道に勉強するほうが身につく」という人もいるでしょうが、どのみちChatGPTでは解決できない問題もまだまだあるので(例えば最新バージョン固有の問題など)、従来どおりの地道な調査がなくなるわけではないです。

そうした苦労を全部の問題に対してやる必要は自分はないと思います。

ChatGPTとこれからの知識人:新しい時代に求められるスキルとは?

あまりに忙しくてブログを更新できていませんが、これだけは今後のために記録を残しておきたいと思い書いておきます。

推敲はほぼしてないので乱文・乱筆をお許しください。

DISCLAIMER

ChatGPT関連の記事やツイートは忙しくてほぼ読んでません。

記載されている内容は間違っている可能性があります。

アカウント作成から課金まで

私が初めてOpenAIのアカウントを作ったのは2023/3/19(日)でした。

世間がChatGPTで盛り上がるようになってからずいぶん遅れての参加となりました。

無料でも少し使えるのですがレスポンスがかなり遅く、このタイミングでは正直おもちゃ程度にしか感じませんでした。

なので月20ドルという有料版の価格は割高に感じました。

しかし、GPT4を試してみたいという気持ちもあり、1ヶ月だけでも課金してみるかと思って課金してみました。

全く世界が変わりました。

GPT4については、利用回数が少ないこと(2023/03/22時点で3時間に25回)、レスポンスが遅いことなどから、正直そこまで実用性は感じられませんでした。GPT3.5を高速なレスポンスで使い放題になることが真の価値だったと課金して気づきました。

あらゆる知的活動をアシスト

ChatGPTは、自分が普段行っている知的活動のほとんどについてアシストしてくれます。

ここまで汎用的とは全く想像していませんでした。

多大な生産性向上の体験を一瞬のうちに提供してくれるサービスとしては、Google検索やDeepL以来の衝撃です。

「Hooked」にあるようなフックモデルを完璧に実践しています。

どのくらいChatGPTがすごいのか

世間では有史以来の衝撃とか大騒ぎしていますが、正直そこまでのものかは私には分かりません。

最初盛り上がってもその後沈んでいく製品やサービスは山ほどありました。

ChatGPTがそうならない保証はどこにもありません。

今のところの自分の評価としては、こんな感じです。

  • 2022-2023年の「世界史」に確実に名を残す。21世紀前半の歴史に名前が残るかは今のところ不明(別のサービスが今後デファクトになっていくかもしれないので)。
  • インターネット史には確実に名を残す。コンピュータ史に名を残すかは今のところ不明
  • 対話型AIという一般化された概念としては21世紀の世界史に名を残すしコンピュータ史にも名を残す

自分なりのChatGPTの使い方

以下のスクリーンショットは、特に断りがない限りGPT3.5を用いています。

人力検索の代替

多くの人が一番価値を感じているのが検索だと思います。特に、キーワード検索が難しく、人に聞かなければいけないような質問には完全に答えてくれます。

長いので前半部分だけ貼ります。

他にも、冠婚葬祭や礼儀作法などで、自分の具体例を挙げて質問することができ、自分に合った答えをもらうことができます。

個人的には、少なくとも今のままのYahoo!知恵袋やStack Overflowにある質問のかなりの部分はChatGPTに代替されていくだろうと思っています。

ただし、回答が合っている保証はないので、このあとさらに追加で自分で調べる作業は必要です。

しかし、完全に一から調べるよりも遥かに手間が省けます。

学習用対話システム

コンテンツを使った学習システムは、大抵の場合読書や視聴によるインプットが主体で、アウトプット可能なものでも選択式など非常に限定的なものばかりでした。

なので、フィードバックを得られる対面指導には大きな価値がありました。

ChatGPTは対話によって自分の回答に対してフィードバックしてくれます。

なにかを学習するのにアウトプットをするというのはとても効率がいいことは知られています。

これができるだけでもChatGPTは他の教育サービスと一線を画しています。

ただし、回答が正しい保証もないので、この回答をさらに自分で調べていき正確性を確認するところまでをセットで行う必要があります。

子供用の簡単な童話創作

子供の寝かしつけ用に簡単なお話を創作してみましたがなかなかいいできのものができます。

注文をつけてリテイクしても柔軟に対応してくれます。

以下の例はGPT4で作成しました。

タイトルを考える

このブログ記事のタイトルもChatGPTに考えてもらいました。

以下はGPT4で作成しています。

一見創造的に見えるこうした作業はChatGPTにほぼ丸投げできます。

プロのコピーライターでもない限り、一般人にはこれで十分です。

ChatGPT時代の知識人

膨大な知識を単に自然言語としてアウトプットするだけ、という知識人はこれからかなり立場を悪くしていくことになるでしょう。

また、独創性のあるアイデアを出すというのもChatGPTはかなりのレベルでできると感じました。アイデアを出すだけではかなり生き残るのが難しいと思います。

一方で、過去のシステムと同様、未知の質問を作る能力はありません。

これからの知識人は、今まで以上に新しい質問を創造する能力が問われてきます。

いい質問を作るには、言語化、抽象化の能力の他、問題の構造化や分割などの能力が必要になります。

今まで人力検索でいい質問を作れた人たちは、今後もChatGPT相手にその価値を最大限に引き出す質問をしていくでしょう。

また、ChatGPTでは人から話を聞き出すことができません。

人との対話を通じて話を引き出していく、LISTENの技術はまだまだ人間の独壇場でしょう。

万人向けのツールではない

質問の切り出しや言語化が苦手な人にとってはChatGPTはあまり使い勝手がいいものではありません。

万人向けのツールではなく、知的労働者の一部の人が多大な恩恵を預かれるツールというのが現状の認識です。

とはいえ、知的労働者という非常に広範なくくりの中の一部なので、それでも想定ユーザーは膨大な規模となるでしょう。

1ヶ月でいいから課金しろ

正直、月20ドルを払い続けるというのが万人にとって価値があるかどうかまだわかりません。

ですが、1ヶ月だけ20ドル払って試すというのは間違いなく全員におすすめできます。

映画1本みるか、アミューズメントパークに1回いくのと同じだけの金額で次の未来を体験できるものなら安いものです。

今まで試したことがなかった人も、無料版でちょこっと試しただけの人も、一度は有料版を触わることをおすすめします。