はてなキーワード: 組み込みとは
たしかに凄いけど日本で言ってるのがしょぼスタートアップとかであんま現実味ない
確かに安価でコード補完からデプロイ、資料まで作ってくれるけど今日ですらスクリプト書く側がlpic、ccna、基本情報でも持って無きゃ低レベル壁打ちにしかならない
当たり前だが大企業だとセキュリティやプライバシー費用対効果で判断の後に限定的な公開から始まるのでうまく行かない
基礎知識のない奴が見てくれだけのサービスを公開していくのかと思うと怖い
AIマンセーしてる人に質問したらマジで知らなくて途中からAIに聴きながらの会話になったのを見て書いた。
あとローコードツールとノーコードツールはほぼ死滅しそう。組み込みコパイロットの性能の悪さもあるけどAI作業の恩恵一番受けないわ
泥棒は罰して刑務所に入れなければならない、それは社会としての義務だ
一つの見方にしかできないのであれば、行きつく先は自分か敵のどちらかが絶滅するまで殺し合うしかない
19世紀のヨーロッパは、勢力均衡を維持することで戦争を防ぐという基本的な考え方に基づいていました。
1815年のウィーン会議では、オーストリア、イギリス、プロイセン、ロシア、フランスの五大国が協力し、一国の覇権を防ぐシステム(ウィーン体制)を確立しました。
これにより、ヨーロッパは100年間(1815年〜1914年)、比較的安定した国際秩序を維持。
🔹勢力均衡の特徴
どの国も過度に強くならないように調整(例えば、フランスが強くなりすぎれば、他国が同盟を組んで対抗)。
国際協調と戦争の回避が目的(バランスが崩れると戦争が起こる)。
例)クリミア戦争(1853-1856年):ロシアの南下を防ぐため、イギリスとフランスがオスマン帝国を支援。
例)普仏戦争(1870-1871年):ドイツ統一後、フランスとドイツの勢力バランスが崩れ、対立が激化。
➡︎問題点: 勢力均衡は理論上安定を生むが、各国が互いを疑い続けるため、軍備競争が進行しやすい。
🔹戦争の原因
19世紀後半になると、ドイツの急速な成長によりヨーロッパの勢力均衡が崩れた。
フランス・イギリス・ロシア(協商国) vs. ドイツ・オーストリア(同盟国)という対立構造が固定化し、軍拡競争が発生。
バルカン半島での民族主義の高まりや、オーストリア皇太子の暗殺(サラエボ事件)がきっかけで戦争が勃発。
各国が相手を警戒しすぎて、軍拡競争が過熱(安全保障のジレンマ)。
一国が突出すると、それを抑えるための戦争が発生(ドイツの台頭と英仏の対抗)。
➡︎戦後の影響:ドイツ帝国・オーストリア=ハンガリー帝国・オスマン帝国が崩壊し、新しい国際秩序が求められる。
国際連盟(League of Nations)が設立され、勢力均衡ではなく「集団安全保障(Collective Security)」の概念が生まれる。
🔹戦争の原因
第一次世界大戦後の国際連盟は、ドイツ・日本・イタリアの侵略を止められず、集団安全保障が機能しなかった。
一方で、イギリスとフランスはヒトラーの台頭を防ごうとせず、ドイツの軍拡を許した(宥和政策)。
ドイツ・日本は「地域覇権」を目指し、国際秩序を変えようとした。
➡︎戦後の影響:勢力均衡ではなく、アメリカとソ連という二大超大国による新しい国際秩序(冷戦)が生まれる。
冷戦では、アメリカとソ連の二極体制(Bipolar System)が形成され、勢力均衡ではなく「敵対的均衡」となる。
核兵器の登場により、「相互確証破壊(MAD)」による均衡が成立。
🔹防御的現実主義(Defensive Realism)の登場
ケネス・ウォルツ(Kenneth Waltz)は、「冷戦の安定性は、両陣営が均衡を保ち、過度な拡張をしないから」と分析。
「勢力均衡は戦争を防ぐが、過度な軍事拡張は戦争を招く」とし、防御的現実主義を提唱。
1991年にソ連が崩壊し、アメリカの一極支配(Unipolarity)が確立。
🔹ジョン・ミアシャイマーの攻撃的現実主義(Offensive Realism)
「国家は勢力均衡ではなく、可能な限り力を拡大し、覇権を確立しようとする」。
勢力均衡理論(防御的現実主義)と異なり、攻撃的に力を求める国家が競争を激化させる。
ウクライナ戦争も、アメリカとNATOがロシアを締め出そうとした結果、ロシアが反撃したと説明。
時代 | 主要理論 | 特徴 | 失敗の要因 |
---|---|---|---|
19世紀 | 勢力均衡論 | 各国が均衡を維持 | 軍拡競争を止められず、戦争に発展 |
WW1 | 勢力均衡崩壊 | 同盟が固定化 | ドイツの台頭に対処できず戦争勃発 |
WW2 | 集団安全保障 | 国際協調 | ヒトラーの拡張を防げず |
冷戦 | 防御的現実主義 | 二極均衡(米ソ) | 軍拡競争、代理戦争 |
冷戦後 | 攻撃的現実主義 | 覇権競争 | アメリカの一極支配とNATO拡大 |
ミアシャイマーの攻撃的現実主義は、ケネス・ウォルツ(Kenneth Waltz)の「防御的現実主義(Defensive Realism)」とは異なり、国家は安全保障を求めるだけでなく、可能な限り権力を拡大しようとすると主張します。彼の理論の基本的な前提は以下の通りです。
1.無政府状態(Anarchy):
国際社会には「世界政府」が存在せず、国家は最終的に自らの安全を自ら守らなければならない。
2.国家は生存が最優先(Survival is the Primary Goal):
国家は他国に侵略されず、自国の主権を維持することを最重要目標とする。
3.国家は合理的な主体(States are Rational Actors):
4.パワーの均衡(Power Balancing):
国家は敵対国を牽制しながら、軍事力・経済力を増大させることで優位性を確保しようとする。
5.安全保障のジレンマ(Security Dilemma):
ある国が自国の安全を確保しようと軍備を拡大すると、他国はそれを脅威とみなし、さらなる軍備拡張を招く。
国家は単に自国を守るだけでなく、可能な限り他国よりも優位に立とうとする。
防御的現実主義(ウォルツ)は「国家は一定の安全保障が得られれば満足する」と考えるが、ミアシャイマーは「どの国家も覇権を追求する傾向がある」と主張。
ミアシャイマーによれば、すべての大国は地域覇権を確立し、他の地域で覇権を持つ国を封じ込めようとする。
例)アメリカは西半球(南北アメリカ)で覇権を確立し、他の覇権国家(例えば中国やロシア)が台頭するのを防ごうとする。
防御的現実主義は「勢力均衡が安定をもたらす」と考えるが、攻撃的現実主義は「国家は可能な限り強くなることでのみ安全を確保できる」と考える。
軍事力・経済力を最大化し、競争相手を抑え込むことが最善の戦略。
核兵器は絶対的な安全を保証する手段の一つだが、核拡散が進むと不安定要因となる。
例)アメリカはロシアや中国、北朝鮮の核戦力を抑えようとするが、これが新たな競争を生む。
ミアシャイマーの攻撃的現実主義の視点から、彼はウクライナ戦争について以下のように説明しています。
アメリカ(NATO)は、ウクライナを西側陣営に組み込み、ロシアの影響力を削ぐ戦略をとってきた。
ミアシャイマーは、「アメリカがロシアの勢力圏を狭めようとしたことが、ロシアのウクライナ侵攻を誘発した」と分析し、西側の外交政策を批判しています。
途中まではおおむね発言の要約になってるが、↓ここで突然エクストリーム創作をぶっ込んでいるな。それはトランプの発言ではなく増田の想像でしかない。
トランプ「お前がいう安全保障って、ウクライナ攻められたらアメリカが黙ってないぞって約束やろ?NATO加盟しようとしてロシアに攻められたのわかってる?アメリカが銃口つきつけに行ったら第三次世界だろ?
そりゃ俺の口からは言えねーよ。
そんかわり、希土採掘で米国企業や米国民が駐留すれば、そこでなんかあったときにアメリカが出張る建前が立つ。
他にいいアイデアがあったら言ってみろよ。
君に手持ちのカードはないだろ?」
何らかの仕組み込みでのアメリカからの安全保障の確約がなければ今回の話し合いの合意には至りたくなかったゼレンスキーと、そんな確約はする気がなく、とにかく停戦させたいだけのトランプという状況。「ゼレンスキーが失敗した」と言うと、ゼレンスキーのやり方次第ではこの会談でゼレンスキーの望みが叶う見込みがあったかのようだが、実際には、今回の会談はゼレンスキーがやり方次第で結果を変えることができるようなものではなかった。
通貨の価値ニアリーイコール国家の信用、であるので、自国通貨の価値が相対的に落ちるということは国家の信用が落ちるということだから
それが自国内で起こるということは通貨発行権の毀損でもあるから治安にも関わってしまう
だから日本が暗号通貨に高い税金をかけるならその税金は暗号通貨購入に充ててリスクヘッジした方が良い
Claude 3.7 Sonnet:
暗号通貨と国家の関係について興味深い視点をお持ちですね。以下にコメントさせていただきます。
確かに、国家通貨の価値は国家の信用と密接に関連しています。そして、暗号通貨が国家通貨に対する代替手段として台頭すると、従来の通貨発行権に基づく国家の経済コントロールが弱まる可能性があります。
1. 暗号通貨と国家通貨は完全な代替関係ではなく、むしろ共存・補完関係にあるケースも多いです。多くの暗号通貨取引は依然として法定通貨との交換を前提としています。
2. 税制については、日本を含む多くの国が暗号通貨に課税することで、国家財政への組み込みを図っています。これは排除というよりも管理の一環と見ることもできます。
3. 「暗号通貨課税で得た税収を暗号通貨購入に充ててリスクヘッジすべき」という提案は斬新ですが、国家が投機的資産にリスクエクスポージャーを持つことの是非については議論の余地があります。政府が直接暗号通貨市場に参入することは、市場への信頼性や中立性に影響を与える可能性もあります。
4. 世界各国では、CBDCなど国家が管理する「デジタル通貨」の開発も進んでおり、暗号技術を活用しつつも国家の通貨主権を維持する方向での対応も模索されています。
交換の「前提」は通貨の管理権がまだ国家にあるということで考察として聞くべき点は多少あったが、それ以外の1の情報はノイズでしかないな。
2は俺が言ったことの繰り返しだし、3は「国家とは相性が悪い」と言っているのだから、国家としては「市場への信頼性や中立性」は気にする必要がないだろう。むしろ信頼性や中立性なんか壊してしまえば良いはずだ。(ああ、逆に信頼性や中立性が高まる方向に行ってしまうと不都合だ。それでも国家が暗号資産のシェアをいくらか握るということは何もしないより国家にとってマシな状態になると俺は思う)
4は現在流通しているビットコインとかの話をしたかったのだが、「暗号技術を用いた国家発行の通貨」の話になっちゃってるな。これは俺が悪いが、仕事に使うにもこの辺全部穴を埋めてプロンプト組まないといけないからゼロから自分でやった方が良いやって気分になるんだよな。
印刷物の「縦の列」を指すようになり、
この増田では、コラムの語源と起源を軸に、その社会的役割と現代における展開を考察する。
コラムの語源は、古代ローマ建築を支えた石柱「columna」に由来する。
紙面の縦方向の区画を「column」と呼ぶ慣習を生み出した。
日本で「コラム」が外来語として定着したのは明治期以降とされる。
1874年創刊の『郵便報知新聞』が初めて縦組みの短評欄を導入し、
当初は「雑報」と呼ばれていたが、
興味深いことに、
戦前の新聞では「円柱」の原義を意識した「柱記事」という表現も併用されていたが、
戦後GHQの指導で横組みが普及する過程で「コラム」が優勢となった。
1751年3月11日、
イギリスの『ロンドン・アドバイザリー・リテラリー・ガゼット』が紙面右端の縦長スペースに批評記事を連載開始した。
これが「コラム」と呼ばれる契機となり、
当時の記事は縦12cm×横4cmのスペースに収められ、
この形式が人気を博し、
1777年には初の有料コラムニストが登場するまでに発展した。
年間人気コラムランキングが出版されるほど社会的影響力を持った。
朝日新聞「天声人語」の執筆陣には芥川賞作家の井上靖や開高健ら文学者が名を連ねた。
この時期の特徴は、
800字前後の制約の中で比喩と時事批評を融合させる文体の確立にある。
インターネットの普及により、
コラム文体の最大の特徴は、文字数制約(新聞で400-800字、ウェブで1500字前後)の中で最大限の表現効果を追求することにある。
この制約が比喩の多用を促し、「経済の体温計」(日経新聞)のような定型表現を生み出した。
「具体例(30%)→データ提示(25%)→比喩(20%)→結論(25%)」
①擬人法(「円が踊る」)、
2000年代以降は、
といった読者参加型の手法が増加している。
特にYahoo!ニュースのコラムでは、
本文冒頭に読者アンケートを組み込む「インタラクティブ型」が2018年から導入されている。
公式報道では扱えない市井の声を拾い上げる機能を果たしてきた。
実際に地方自治体の政策変更につながった事例が複数報告されている。
近年では、毎日新聞「発言」欄が東日本大震災後の被災地ルポを継続的に掲載し、
コラムは教養主義から大衆文化への橋渡し役としても重要な役割を担ってきた。
2010年代には、
産経新聞「産経抄」が日本の伝統工芸職人を紹介するシリーズを展開、
2023年、
朝日新聞社はAIコラム生成システム「COLUMN-BOT」を試験導入し、
感情分析アルゴリズムを組み込んだ「共感型AI」の開発が進められている。
一方で、
2024年の読売文学賞では初めてAI生成作品がノミネートされる事態が発生した。
読者の閲覧履歴に基づくパーソナライズド・コラムが一般化している。
ユーザーの位置情報・検索履歴・心拍数データ(ウェアラブル端末連動)を分析し、
これに伴い、
職能の変容が進んでいる。
その形態は変化し続けているが、
今後の課題は、
AIとの協働の中でいかに人間らしい洞察を深化させられるかにある。
次世代の「知の柱」としてどのような発展を遂げるか、
どう考えても無料拡張プラグインを紹介してくれるDTMerの方が「カッコイイじゃねーか!」と思うので格好付けるため紹介する
世の中にはYAMAHA DX7オマージュやクローンと呼ばれるシンセサイザーは多数あるけれどDexedはエミュレーターとして扱われている。
その理由はYAMAHA DX7をシステムレベルで再現することが開発目標となっており、DexedはDX7実機のSysExすらもサポートしていてDX7の音色拡張ROMデータを読み込むことができる再現度が強み。
欠点は、あまりにもYAMAHA DX7へ寄り過ぎているためか内蔵エフェクターが搭載されておらず、DX7でもエフェクターを接続することが当たり前に行われていたことがDexedでも踏襲され、Dexedにエフェクタープラグインを接続することが前提となってしまっている。
そもそもデジタル処理のFM音源なのでDexedはDX7の音の再現度も相当に高いが、DexedでFM音源を再生すると「綺麗すぎる」「温かみがない」と評されることが有る。これはシステムレベルでDX7を再現したことによって現代のD/Aコンバーターやオペアンプの性能が高すぎるからこそ起きる。
現代の電子音楽シーンでウェーブテーブルシンセシスの存在感を否定する者なんて誰も居ない。
DTMではNative Instruments MassiveとXfer Serumが登場したことによって様々なメーカーがソフトウェアウェーブテーブルシンセサイザーを雨後の筍のように開発したが、Vitalはそんな雨後の筍の後発ソフトウェアウェーブテーブルシンセサイザーの中でも存在感を示すことに成功した。
一目見てわかる最大の特徴はMicrosoftメトロUI、Appleフラットデザイン、GoogleマテリアルデザインとIT界隈ではモダンなUIが発展していく中、Vitalはそれらのデザインを取り込み、難解なウェーブテーブルシンセシスにわかり易さを目指している。ほとんどの操作はマウスの左クリックで完結でき、右クリックの奥に大事な機能が隠れていることは少なく、LFOなどをドラッグ&ドロップできる箇所も明示され、ADSRエンベロープの動きもわかりやすい。
更に、野心的な試みはその製品展開でも行われ、Vitalソフトウェアシンセサイザー本体は無料で、ウェーブテーブルや音色プリセットは有料というスタンスを取った。併記されるVitaliumは、Vitalがオープンソースで開発されたことへ端を発し、オープンソース環境を維持したまま開発を継続するためVitalからの派生プロジェクトとしてVitaliumが生まれた。命名からわかるようにGoogle ChromeとChromiumの関係に近い。
欠点はまだまだ発展途上でユーザー数でMassive(Massive X)やSerumに及ばなく、情報が少なめであることだろう。
元来は有償としてVember Audio名義で提供されていた。開発者はDAWのAbleton Liveの開発経験があり、続けて新しいDAWのBitwig Studioを立ち上げ、Bitwig Studioの開発へ集中するため開発継続は困難としてSurge XTをオープンソース化した。オープンソース化をきっかけに多数の人が開発へ携わるようになり、オープンソース化後の方が有償時よりも高機能になったという面白い経緯を持つ。
Vital / Vitaliumを知った後であるならばSurge XTの外観は一目見て古臭いことがわかるものの開発開始時期は2000年代初頭であるから仕方がない。旧来ソフトウェアシンセサイザーの外観に慣れ親しんだ者であるならばオシレーターセクション・フィルターセクション・エンベロープセクション・アンプセクションなどの位置が逆にわかりやすいかも知れない。
古臭い外観とは裏腹にシンセシスはマルチパラダイムで、減算方式を基本としながらも多数の協力者のお陰でウェーブテーブル方式まで組み込まれた最新のものとなっており、昔懐かしいシンプルな音色からColour Bassグロウサウンドのような複雑怪奇な音色まで作ることが出来る。
その幅広い音色を可能とする理由はLFOはサブも含めて12個もあり、それら12個はエンベロープモードへ切り替えることが可能で、更にモジュレーションマトリクスなどを設定可能なマクロは6個もあるなどシンセサイザーギークが非常に喜びそうな内容だ。
加えて、Surge XT Effectsとしてエフェクター部分が別個の独立とした拡張プラグインとして切り離されており、Dexedのような内蔵エフェクターを持たないソフトウェアシンセサイザーを使用する際にも役立つ。
欠点はやはりその古臭い外観と、膨大な機能を搭載したことによるシステム全体の機能把握の困難さだろう。モダンな操作体系に慣れている初心者や若者からすると非常にとっつきにくいのも問題となる。
YAMAHAが開発したYM2612とYMF262のエミュレーターフロントエンド。
YM2612はOPN2、YMF262はOPL3と表現したほうが聞き馴染みのあるかも知れない。つまり富士通FM TOWNSやPC-8801やSEGAメガドライブ、サウンドカードSound Blaster Pro2などに搭載された、いわゆる8bitサウンドFM音源のエミュレーターフロントエンドだ。
なぜADLplug / OPNplugをエミュレーターフロントエンドと称するか?と言えば、実はADLplug / OPNplugはオープンソースで複数存在するYM2612とYMF262のエミュレーター(ADLplug / OPNplugではコアと称する)を好みに応じて切り替えることが可能なフロントエンドであるため。
エミュレーター(コア)ごとの実装の違いで微妙に音色が違っており自身が求める8bitサウンドを追い込む際に、同一のユーザーインターフェースで操作できるのは非常に有り難い。
このような事が可能な8bitサウンドシンセサイザーは商用を含めても他に存在しておらず、はっきりと言ってしまえばADLplug / OPNplugがこれら8bitサウンドシンセサイザー実装の実用上の頂点である。
プリセットも充実しており、プリセットは実在ゲームタイトルでまとめられおり「あのタイトルのレーザービーム発射音や爆発音を自分の音楽に組み込みたい」のような要望にも十分に応えられる。
欠点はやはり「綺麗すぎる」ことか。エフェクターで汚しを入れるなどして当時を再現してみたい。
UTAUと言えばYAMAHA VOCALOIDへ影響を受け開発され、今や小さいとは決して言えない規模のコミュニティを形成する一大ジャンルとして日本の音楽シーンへ定着しているが、OpenUTAUはそのUTAUの精神的後継シンセサイザーである。
当時のVOCALOIDやUTAUを知る者からすると「精神的後継とはどういうことか?」と疑問に思うだろうが、実は現在UTAU本家の開発は終了している。
そこで有志が集まり開発開始されたのがOpenUTAUであり、UTAU本家とは別体制で開発されている以上は正式な後継とは言えないので精神的後継とされている。
OpenUTAUは精神的後継であるが、その機能性は本家UTAUを既に凌駕しており、現在のUTAUコミュニティではこのOpenUTAUがデファクトスタンダードとなり、しかも対応プラットフォームはWindowsのほかMacやLinuxまで幅広くサポート。何ならChromeOS(Crostini)上でも動くことを筆者自身が確認している。
「OpenUTAUは拡張プラグインじゃないだろ!」というツッコミは聞こえない。
モジュラー方式を採用したマルチパラダイムのハイブリッドシンセサイザー。
コンパクトなモジュラーケースへオシレーターやフィルターなどのモジュールを選択して好みの音色を作っていくという方式を採用しているが、Odin2のモジュラー方式は限定的であり、限定的なモジュラー方式が本来は難解であるはずのモジュラーシンセサイザーをスゴく容易に扱うことへ貢献している。
ライトユーザー向けのモジュラーシンセサイザーかと侮るのは早計で、オシレーターにはウェーブテーブルを選択できるなどしっかりとモダンな需要を抑えている上に、マニアックな部分では変調方式にFMのほかPM(Phase Modulation)が存在しており開発者のこだわりを感じる。
欠点は触ってみると意外と高機能であることには気付くものの、更に突っ込んで触り続けているとVital / VitaliumやSurge XTに比肩できるほどの音作りの幅は無いことへ気付かされることだろうか。例えばJC-303のベースじゃ物足りないみたいな時にシンプルでありながら一味加えたベースサウンドをサクッと作る際に便利だろう。
この手のサウンドは高機能すぎるシンセサイザーだと出来ることが多すぎてアレもコレもとやってるうち逆に時間がかかる。ある程度高機能である程度機能が絞られたOdin2のようなシンセサイザーの方が直ぐにまとまるのだ。
ありそうで無かった一風変わったモーフィングするシンセサイザー。
Moniqueは説明に難儀する。
オシレーターセクションが2つあり、それぞれのオシレーターセクションには3つのオシレーターがあるのだが、Moniqueはその2つのオシレーターセクション間をモーフィングすることが可能だ。
意味がわからないかも知れないが、これは決してDJミキサーのクロスフェーダーの様に2つのトラックのゲインを切り替えるのではなく、オシレーターAセクションで設定した数値がオシレーターBセクションで設定した数値へモーフィングしていくのだ。
つまりサイン波をノコギリ波に、ベースサウンドをキックサウンドに、エレピサウンドをスーパーソウにモーフィングさせることができる。説明が本当に難しい。
この説明を理解した人は「もしかしてMoniqueはウェーブテーブルを作れるんじゃね?」と気付くだろう。
そうなのだ、今アナタの手持ちのウェーブテーブルに物足りなさを感じるのであればMoniqueはアナタが持つアナログシンセサイザーの知識を活用してウェーブテーブルを作ることができる。
Moniqueは単体ではそこまで威力を発揮するシンセサイザーではない。しかし使いどころを真に理解したとき間違いなく音作りの幅は広がっていく。
GeonKickは明らかにSonic Academy KICKシリーズのクローン・オマージュで使い勝手も操作感の違いは多かれ少なかれあるが操作感覚としては同じ。最新版であるKICK 3に含まれる機能はないがKICKシリーズの無償代替品として非常に良い選択肢となる。
プリセットもRoland TR-808風があったりと直ぐに欲しいものは揃っており、他のサンプリング音源も追加で読み込んでGeonKick上で編集することが可能なので満足感が高いだろう。
欠点はGMの非サポートで、MIDIの割当はGeonKick上で自ら行わなければならず、更にその方法が非常にわかりにくいのでGMサポートが存在して当たり前のユーザーからすると、GeonKickのMIDI設定がデフォルトのままDAWからGeonKickへキックMIDI送信しても音が鳴らなくて頭の中が疑問符でいっぱいになること。
CC-BY-3.0ライセンスで配布されているSFZ形式のピアノサンプリング音源。
信じられないかも知れないが、家電量販店で5〜10万円前後で売っている電子ピアノよりも高音質でサポートしている機能が非常に多い。
サンプリング元となっているピアノはYAMAHA C5、音質は48kHz/24bit版と44.1kHz/16bit版が存在。ベロシティ感知範囲は16段階、サンプリングターゲットは1オクターブ中の3音(基準音から前後1音はピッチシフト)、鍵盤リリース音やダンパーペダル音もサポート。
かつて、ピアノの音が良い無料のサンプリング音源と言えばYAMAHA S-YXG50だという記憶がある者からすると異次元の音質。 S-YXG50のサイズは4MBだったがSalamander Grand Piano V3はピアノだけでWAV形式だと1GBを超えている。
欠点は楽器数が多く騒がしいポップスやロック、電子音楽などでは気にならないがソロピアノでゆったりな曲を弾くとダンパーペダル動作時の鍵盤リリース音の動作のおかしさがあること(※バグではなく仕様)。
家電量販店で5〜10万円前後で売っている電子ピアノよりも圧倒的にマシではあるが、最新のそこそこ高価な有償ピアノ音源と比較してピアニッシモの様な弱い音の表現力が少々物足りないことも欠点の1つだろう。
ソフトウェアとして音質・機能性共に入門向け電子ピアノを上回ってしまっているので、YAMAHAサウンドを好むのであれば電子ピアノからMIDI接続してPCで鳴らすのも悪くはない(※電子ピアノはスピーカーもハードウェア一体となった設計なので必ずしもSalamander Grand Piano V3が勝るとは限らない。ただしヘッドフォン使用時は明らかに勝る)
guitarixの説明はギタープレイヤーには一言「KEMPERだ」で伝わる。KEMPERという説明で他に多くを語ることが逆に難しい。
ただし、元来の開発コミュニティはLinux界隈でありMacやWindwosは動くには動くがLinuxよりも積極的なサポートが乏しいのが少々残念。
確率的ランダマイザを備えたマニアックなMIDIシーケンサー。
確率でMIDIトリガーするランダマイザを備えたDAWは珍しくもないが、Stochasはそれに加え、指定したMIDIトリガーへ対して別のMIDIトリガーをチェーンすることができる。
つまり、例えばMIDIシーケンサー上のコード進行を確率で別のコード進行へ変化させることが可能で、1小節ループでありながらも複数のコード進行を持つことが出来たりするマシンライブ向きなMIDIシーケンサー。
使いようによってはStochasの後段へ更にアルペジエーターを挿せば、ランダムにコード進行が変化するアルペジオを奏でることが出来るなど、知れば知るほどに可能性を感じる。
飽きさせないBGMを作成するのにも役立ちそうだが、必要ない人には本当に必要ないマニアックな拡張プラグインなのでココに挙げたのは本当に必要な人へ届けたいからである。
どうだ?なかなか良いエントリだったろ?
おいおい褒めるな、褒めるな。そんなに持ち上げたってさ俺から出せるのは無償で使えるシンセやエフェクター、DAWなどがまとめられたURLとか無償で使えるSFZ形式のサンプリング音源がまとめられたURLを貼るくらいなもんだぜ?
まぁ少しは格好付けられただろうし俺は満足して去るわ。じゃあな。
練習用ソフトぐらいはいくらでも転がっているが、指の位置が把握できるものが良い
サーバー運用する上ではGUIに頼れないことが多いため、noxで使えるエディタをマスターしろ
ここにきてようやくプログラミング言語だ
まず共通知識としてHTML,CSS,JavaScriptぐらいは知っておいたほうが良いだろう
あとはどんなプログラマーを目指すかに依るが、組み込み系ならC言語、Web系ならphpやpython、機械学習ならpythonやRを学べ
シェルスクリプトは便利だから、bashをマスターするのも望ましい
要は効率的に処理を書ける必要があるが、LeetCodeやAtCoderで基本的な問題集を解けるようになれ
例えばpythonプログラマーなら、numpy, scipy, scikit-learnなどのライブラリのドキュメントを読めるようになれ
あるいはElasticsearchを使わなければならなくなったときに、ドキュメントを読んで操作できるようになれ
ドキュメントを読む経験が増えれば、新しく何かをやるときにすぐに着手できるようになる
AWSを有料で勉強するのはキツイので、就職後に先輩から学ぶか、あるいは認定試験を本やオンライン講座で勉強するのでもいいだろう
バージョン管理システムは知っておくべき知識だ
いわば、ソースコードの巨大なUndo, Redoみたいなもんだ
パスワードをどう管理すればいいのか、ネットワークセキュリティの仕組み、など基本的なセキュリティは学んどいたほうが良い
クリーンコードに関する書籍はたくさんあるので、時間があるときに読んでおけ
コンバンハ、オイソギデスカ
DeepSeekみたいな話題が日経新聞に載るたびに新規事業になるんじゃ無いかとかプロトタイプをもってこいみたいなこと言われると災難ですよね。
何がどうなってて、何はできないんですよみたいなのまとめておいたから、俺の屍を越えてゆけ。
まず前提からな
ここまでは前提な。こっからが、まとめ。
外に出したく無いデータがあるから、AzureのAPIも使いたく無いんだよね、みたいな職場では朗報。
いまんところモデルそのものに変なものは仕掛けられていないし、QwenやLlamaよりもまあまあできる印象。
できなくは無いけど、まっさらな状態だと稟議通すの無理じゃ無いかな、という金額を載せざるを得ない。
すでにでけえGPUとかで生成AI用の環境を組んでるところなら、できるよね。
できなくは無いけど(以下略)
既にQwenやLlamaを使って自前でなんかやっているところなら、後追いで強化学習のみでいけるか追試するなんてのはできる。
(こういう設備が既にあるなら、特にDeepSeekが出たから新しく、というわけじゃ無いけどね)
無理ですね。そもそも強化学習で改善するのだってJTCなら部長決済で済まないでしょ。(外資ならワンチャンあるのか!?)
そもそものベースの生成AIモデルを作るの、特に強化学習オンリーじゃなくてTransformerベースのよくある作りで作ってあるみたいだし。
無理ですね。蒸留する(ベンチマーク用の性能改善)ならいざ知らず、自社向けの定義もデータも揃わないでしょ。
プロトタイプならあり。ビジネスに組み込むつもりなら、少なくともDeepSeekの蒸留モデルは(まだ)使えない。
QwenやLlama派生モデル扱いなんだったら、MITライセンスになるわけがないので、かなりグレー。
同様に、(流石に多分大丈夫だと思うけど)DeepSeekの改善前のベースの生成AIモデルが、適法じゃなかった時揉めそう。
なお、これは別にDeepSeekに限ったリスクではなくて、QwenやLlamaも同じなんで、基本全部同じリスクを抱えてると思った方が良い。
元になるベースの生成AIモデル作るところまでは、既存の作り方と同じなのでビックテック優位変わらず。
が、雑にベースの生成AIモデル作っても、わりあいお安く性能改善できるんで追いつけるね、というのは、多分正しそう。
なんで研究資料とかオープンにしてんの?というのは、多分2つくらい理由があって、その方が話題になって儲かるから、というのと、オープンにしておけば転職しても使えるから、というもの。
カントリーリスクは相変わらずあるので、Web版とかAPIで使うなら、趣味の大っぴらにしてるプログラミングの補助で使うとか、ゲーム用になんかするとか、じゃないかな。
ローカルで使うって言っても、余程のことがない限りAPI使ってお支払いした方が、パソコン新調するよりはお安いのではないでしょうか。
低性能なの使ってもあんま楽しくないし、思いつくユースケースは、趣味でコストをかけずにゲームに生成AI組み込みたいんで無限にローカルで試行錯誤したい、くらいじゃないかな。
オープンソースになったんだから、コモディティ化(?)して、生成AIは誰でも作れるようになる!みたいな言説はまだまだお花畑ですね。
設備投資もランニングコストも、日本のベンチャーとかじゃまともな勝負にはならんでしょ。
メモリ16GBのノートPCで動く1GiBサイズでChatGPT-4oレベルの超蒸留モデルが出てから出直してきてくださいというところ。
そんな超絶技巧のスモールサイズAIよりは、AGIの方が先にきそうだけど。
2023年、生成AIを搭載した検索エンジンの登場は世界に衝撃を与えた。米国政府が国家戦略として掲げるAI開発競争は、技術的優位性の確保と経済的リターンの獲得という二重の課題に直面している。OpenAIのGPT-4が示した驚異的な言語理解能力は、軍事技術から医療診断まで幅広い応用可能性を予感させた。しかし、黎明期の熱狂が冷めつつある今、業界関係者の間で囁かれる疑問は「この技術は本当に金を生むのか」という現実的な問いへと移行している。
米国政府は2021年度AI研究開発予算を32億ドルに設定し、国防高等研究計画局(DARPA)主導で軍事転用可能なAI技術の開発を加速している。量子コンピューティングとの融合や、半導体製造技術の国内回帰(CHIPS法)など、ハードウェア面での基盤整備に注力する姿勢は鮮明だ。特にNVIDIAのGPU需要は国防契約と連動し、同社の株価は過去5年で1,200%超の上昇を記録している。
大手テック企業の動向は矛盾に満ちている。MicrosoftはOpenAIに130億ドルを投資しながら、実際のAzure AIサービス収益は予測の60%を下回る。GoogleのBard統合検索では広告収入モデルの再構築に苦慮し、AmazonのBedrockプラットフォームはAWS顧客の3%未満しか採用していない。生成AIのコスト構造が明らかになるにつれ、1クエリ当たり0.006ドルという処理費用が収益化の壁として立ちはだかっている。
ChatGPTの月間アクティブユーザー数が18億を突破する中、OpenAIの年間損失額は5.4億ドルに達する。主要収入源であるAPI利用では、企業顧客の80%がプロトタイプ段階で開発を中止している現実がある。Microsoft 365 Copilotの事例が示すように、生産性向上ツールとしての価値認知と実際の支払意思の間には深い溝が存在する。ある調査では、Copilotユーザーの67%が「月30ドル以上の価値を感じない」と回答している。
AIチップ需要の過熱が生んだ半導体バブルは特筆すべき現象だ。NVIDIAの時価総額が2023年に1兆ドルを突破した背景には、H100 GPUの価格が製造原価の800%を超える事実がある。TSMCの3nmプロセス需要の70%がAI関連に集中する異常事態は、半導体産業全体のリソース配分を歪めている。しかし、Cerebras Systemsの新型Wafer Scale Engineが示すように、ハードウェアの進化速度がソフトウェアの最適化を上回る逆転現象が発生しつつある。
中国のDeepseek-R1がGPT-4の性能を1/10のコストで実現した事実は、業界の常識を根本から覆した。同モデルが採用した「動的ニューロン活性化」アルゴリズムは、不要なパラメータ計算を85%削減する画期的な手法だ。これにより、従来1回の推論に要した0.2kWhの電力を0.03kWhまで圧縮することに成功している。Deepseekの事例が証明したのは、計算資源の多寡が必ずしも性能優位を保証しないという逆説である。
Llama 3やMistralの進化が加速する中、独自モデルを保持する企業の競争優位性は急速に失われつつある。Hugging Faceのプラットフォームでは、1週間ごとに新しいLLMアーキテクチャが発表され、ファインチューニングの自動化ツールが普及している。特に中国発のモデルがGitHubで急増する傾向は顕著で、2024年上半期だけで3,200件の新規リポジトリが登録された。この状況は、初期投資の回収を前提としたビジネスモデルの存続自体を危うくしている。
国際数学オリンピック(IMO)の過去10年間で、中国チームが9回の優勝を達成している事実は軽視できない。特に2023年の北京大会では、金メダル6個中5個を中国国籍の学生が独占した。米国チームの実態を見ると、参加者の62%が中国系移民の子弟で構成されており、本質的な人材育成力の差が浮き彫りになっている。DeepMindの元チーフサイエンティフが指摘するように、「Transformerアーキテクチャの革新には組合せ最適化の深い理解が不可欠」であり、この領域で中国の研究者が圧倒的な論文数を誇っている。
清華大学のAI特別クラスでは、学生が高校時代からGANsや強化学習の数学的基礎を学ぶカリキュラムを採用している。これに対し、MITのコンピューターサイエンス学部では、学部2年次まで微分方程式の必修科目が存在しない。教育省の統計によれば、中国のトップ30大学でAI関連専攻を選択する学生の数は、米国アイビーリーグの3倍に達する。人的資本の蓄積速度の差が、5年後の技術格差に直結する可能性が高い。
LLM市場が直面する最大のリスクは、電気自動車用バッテリーや太陽光パネルと同じ道を辿る可能性だ。BloombergNEFの予測によれば、2027年までにLLMの性能差が実用レベルで感知できなくなり、1トークン当たりのコストが現在の1/100にまで低下する。この状況下では、MicrosoftのCopilotのような高額サブスクリプション・モデルの持続性が疑問視される。逆に、LINEやWhatsAppのようなメッセージングアプリへの基本機能組み込みが主流となるシナリオが有力視されている。
AI技術の民主化が進むほど、国家間の競争はハードウェア規制やデータ主権を巡る争いに移行する。米商務省が2024年に発動したAIチップ輸出規制は、中東諸国向けのGPU販売を34%減少させた。一方、中国が推進する「東数西算」プロジェクトでは、内陸部に分散したデータセンター群が国家標準モデルの訓練基盤として機能し始めている。技術優位性よりも、地政学的な影響力が市場を支配する時代が到来しようとしている。
現状のAIバブルがはじけるトリガーは複数存在する。第一に、2025年をメドに予想される「生成AI特許訴訟の多発」が挙げられる。Getty ImagesがStability AIを提訴した事例のように、著作権問題が技術普及の足かせとなる可能性が高い。第二に、エネルギーコストの急騰だ。アイルランドのデータセンター群ですでに発生しているように、LLM運用に必要な電力需要が地域の送電網の容量を超えつつある。
最も深刻なシナリオは「技術進化の減速」である。Transformerアーキテクチャ以降、根本的なブレイクスルーが10年間発生していない事実は看過できない。物理学者の間では、現在のニューラルネットワークがチューリング完全性の限界に近づいているとの指摘もある。もし2020年代後半までに新しいパラダイムが登場しなければ、数千億ドル規模の投資が不良債権化する危機が現実のものとなる。
米国AI戦略の行方は、単なる経済競争を超えた文明史的挑戦と言える。Deepseekが示したように、技術優位性は絶対的なものではなく、常に相対的な優劣でしかない。重要なのは、AIが生み出す付加価値の本質を見極めることだ。仮に生成AIが期待通りの経済効果を生まなくとも、その研究過程で得られた副産物(分散学習アルゴリズムや省電力チップ設計技術など)が次の技術革命の種となる可能性がある。
最終的に問われるのは、短期的な株価維持ではなく、長期的な技術蓄積をいかに持続可能な形で進化させるかという課題である。中国の人的資本戦略と米国の投資戦略が衝突する中で、第三極としての欧州連合(AI法案)やインド(デジタル公共財戦略)の動向が新たな可能性を開くかもしれない。AI開発競争は、国家の命運をかけた「静かなる戦争」として、これからさらに激化していくであろう。
https://news.yahoo.co.jp/articles/9c0211f6be7ce7c71987f00ef73e612d1cd12600
全米を移動する大谷について回る必要があってz休みなのか仕事なのか怪しくシフトも曖昧になるだろうと考えると、待機時間含め24時間365日拘束に近い生活
しかもフジが晒した12億の家(と同クラス)の家の近くに住む必要あるから家賃もバカ高。
それで50万ドル。ウォルマートの店長が頑張ればインセンティブ含め50万ドル稼げると話題になる国で50万ドル
大谷個人から別途報酬ってのもクソで、「雇い主の気分でボーナス」なので安定性が全くない。まだギャンブルの払い戻しのほうが支払日の予想が立てられるから生活に組み込みやすいっていうあれでありがたくない
コレとは別に交通費とか家賃補助だしてるだろ!?」「自分が雇ってるから立場が上という自覚がないまま、と思ってガバガバ契約ガバガバ労使関係してないだろ」!?と思うんだが、世の中の反応見てると真逆なんだよな
こういうシフトがあってないような生活だとスマホ1つでできるギャンブルはめちゃくちゃぴったりくる趣味ってのギャンブル中毒の同類としてわかる
これはそうしす🛡29 Advent Calendar 2024の 4 日目の記事です。
前日(3日目)は hoshi さんによる『プログラミングの基本その1【dllについて】』という情報提供でした。
Windows の基本は DLL であり、この基本概念はほかのプログラミングでも同じだよ~という理解を得ました(合ってるかなぁ?)。
Python や JavaScript とは違い、OSが持つ組み込みAPIに近い部分を触るのでセキュリティ的にも怖い部分がある一方で、うまく使えるようになればとっても強力な武器となりそうですね。
# ----------------------------------------------------------------------------
# ----------------------------------------------------------------------------
====
人間の記憶力は年齢とともに衰えるとされているそうですが、本当なのでしょうか?
私自身も歳を重ねる毎、体感的には短時間で記憶するという事がやり辛いと感じてはいます。
知っている方は多いと思いますが、記憶には短期記憶と長期記憶に分ける事ができます。
短期記憶として海馬に収納された物事は、時間とともに大脳皮質に配布されて長期記憶に変化していきます。
短期記憶は思い出しが容易だが覚えられる量は少なく、長期記憶は長い間覚えていられるものの、思い出したくても上手くいかない事や、そもそも思い出せない事を経験した方は多いと思います。
この短期記憶で覚えていられなかった事や、長期記憶で思い出せなかった事を我々は「忘れる」と表現します。
忘れるという行為は、人間の脳を健全に保つためには必要な事だと言われています。
記憶の中で必要な事と不要な事を判断し、必要な事は覚え、不要な事は忘れるようにしているというのが一般的な考えのようです。
一方で、忘れる事が出来ない超記憶症候群と呼ばれる方々もいます。
一度見たり聞いたりした物事を生涯忘れず覚えていられるという羨ましいとも思える能力を持っています。
しかしながら、嫌な記憶も決して忘れる事ができないので、一概に良いとは言えないところです。
超記憶症候群の方々は症例が少ないため研究が進み辛いそうですが、健常者と比して脳の何が違うという点は見受けられないそうです。
---
話は変わって、脳の働きについて作業療法(リハビリテーション)の観点から興味深い話があります。
脳は飽くまで臓器の一部であり、思考や記憶をはじめ、あらゆる行動に優劣を付ける事無く、ただ単純に効率化し続けているというものです。
観測された事象で、脳に損傷を受けた方がお腹が空いているにも関わらず、目の前に配膳された食事を食べられない事があります。
ご飯・おかず・小鉢・飲み物が同時に目前にあると、どれから手を付けて良いか分からなくなってしまうそうです。
その方に対し、ご飯のみの単品で配膳すると普通に自分で食事を取る事ができるというものです。
単品での食事に慣れてきたら、2品、3品と徐々に品数を増やして食事をするトレーニングをします。
当初は複数品目から食べるものを選択しなければならない事に脳がオーバーフローを起こすのですが、まず自分で食べるという動作に慣れ、徐々に食品を選ぶという事に慣れさせていきます。
少々強引ではありますが、この事から生命の維持に必要な食事よりも、選択できないという脳のオーバーフローが優先される事、慣れという効率化の結果が選択という判断に反映される事が垣間見えるのではないかと思います。
ここまでで、脳の記憶に関する機能に大きな差はなく、効率化するだけというならば、我々の持つ記憶力は効率化の結果の差異でしかないと言えるのかもしれません。
また、年齢による記憶力の減衰というのは、結果だけ見ると正しく見える気はしますが、長年の慣れや習慣を変えたりすることが不要であるとして、脳が忘れることを選択しているだけではないかと思います。
まだまだ脳の仕組みは解明されていないものも多いですが、原因と結果をロジカルに考えて今までの思い込みを排除できれば、案外簡単に良い結果を得られると思いますので老若男女問わず、色々と考えてみて下さい。
=====
本稿はそうしす🛡29 Advent Calendar 2024 - Adventarの 4 日目の記事です。
5 日目の記事は どうやって文書を書く/残していくのがいいのかな - 構造化文書とWYSIWYG となる予定です、お楽しみに!
(´へωへ`*)