[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

投資家間の限定的なリスク移転:マクロ金融モデルの新たなベンチマーク

というNBER論文が上がっているungated(SSRN)版)。原題は「Limited Risk Transfer Between Investors: A New Benchmark for Macro-Finance Models」で、著者はXavier Gabaix(ハーバード大)、Ralph S. J. Koijen(シカゴ大)、Federico Mainardi(同)、Sangmin Simon Oh(コロンビア大)、Motohiro Yogo[與語基裕氏](プリンストン大)。
以下はその要旨。

We define risk transfer as the percent change in the market risk exposure for a group of investors over a given period. We estimate risk transfer using novel data on U.S. investors' portfolio holdings, flows, and returns at the security level with comprehensive coverage across asset classes and broad coverage across the wealth distribution (including 400 billionaires). Our key finding is that risk transfer is small with a mean absolute value of 0.65% per quarter. Leading macro-finance models with heterogeneous investors predict risk transfer that exceeds our estimate by a factor greater than ten because investors react too much to the time-varying equity premium. Thus, the small risk transfer is a new moment to evaluate macro-finance models. We develop a model with inelastic demand, calibrated to the standard asset pricing moments on realized and expected stock returns, that explains the observed risk transfer. The model is adaptable to other macro-finance applications with heterogeneous households.
(拙訳)
我々は、リスク移転を、ある投資家の集団のある期間における市場リスクへのエクスポージャーのパーセント変化として定義した。我々は、資産クラスを包括的にカバーし、富の分布を広くカバーした(400人のビリオネアを含む)米投資家のポートフォリオ保有、フロー、およびリターンの証券レベルの新たなデータを用いてリスク移転を推計した。我々の主要な発見は、リスク移転は絶対値平均が四半期当たり0.65%と小さい、ということであった。不均一な投資家を備えた主流のマクロ金融モデルは我々の推計値の10倍以上のリスク移転を予測するが、それは投資家が時変的な株式リスクプレミアムに反応し過ぎるためである。従って、小さなリスク移転はマクロ金融モデルを評価する新たなモーメントとなる。我々は非弾力的な需要を持つモデルを構築し、実際ならびに予想株式リターンについての標準的な資産価格のモーメントでカリブレートして、観測されたリスク移転を説明した。同モデルは、不均一な家計を備えた他のマクロ金融の応用に適用することができる。

ポートフォリオのデータはAddepar(Addepar - Wikipedia)のデータを使い、エクスポージャーブラックロックのデータを用いて計算したベータ値で測ったとの由。

労働市場における技術的破壊

というNBER論文をサマーズらが上げている(H/T サマーズがRTしたNBERツイートタイラー・コーエン昨年10月時点のまとめ記事&WP*1)。原題は「Technological Disruption in the Labor Market」で、著者はDavid J. Deming、Christopher Ong、Lawrence H. Summers(いずれもハーバード大)。
以下はその要旨。

This paper explores past episodes of technological disruption in the US labor market, with the goal of learning lessons about the likely future impact of artificial intelligence (AI). We measure changes in the structure of the US labor market going back over a century. We find, perhaps surprisingly, that the pace of change has slowed over time. The years spanning 1990 to 2017 were less disruptive than any prior period we measure, going back to 1880. This comparative decline is not because the job market is stable today but rather because past changes were so profound. General-purpose technologies (GPTs) like steam power and electricity dramatically disrupted the twentieth-century labor market, but the changes took place over decades. We argue that AI could be a GPT on the scale of prior disruptive innovations, which means it is likely too early to assess its full impacts. Nonetheless, we present four indications that the pace of labor market change has accelerated recently, possibly due to technological change. First, the labor market is no longer polarizing— employment in low- and middle-paid occupations has declined, while highly paid employment has grown. Second, employment growth has stalled in low-paid service jobs. Third, the share of employment in STEM jobs has increased by more than 50 percent since 2010, fueled by growth in software and computer-related occupations. Fourth, retail sales employment has declined by 25 percent in the last decade, likely because of technological improvements in online retail. The post-pandemic labor market is changing very rapidly, and a key question is whether this faster pace of change will persist into the future.
(拙訳)
本稿は、人工知能(AI)により今後起きるであろうインパクトについての教訓を学ぶことを目的として、米労働市場における技術的破壊*2の過去のエピソードを調べた。我々は一世紀以上前に遡って、米労働市場の構造変化を測った。おそらく驚くべきことに、変化のペースは時間とともに鈍化していることを我々は見い出した。1990年から2017年に掛けての期間は、1880年まで遡って我々が測定したそれ以前のすべての期間に比べて破壊度が少なかった。この相対的な減少は今日の雇用市場が安定しているためではなく、過去の変化があまりにも根本的なものだったためである。蒸気動力や電力のような汎用技術は20世紀の労働市場を劇的に破壊したが、変化には数十年掛かった。AIは従前の破壊的イノベーションに並ぶ規模の汎用技術になり得るため、完全なインパクトを評価するのは時期尚早である可能性が高い、と我々は論じる。とは言うものの、おそらくは技術変化によって労働市場の変化のペースが最近加速した4つの兆候を我々は提示する。第一に、労働市場はもはや分極化していない。給与が低い、もしくは中程度の職の雇用が減少した一方で、高給与の雇用が伸びた。第二に、低給与のサービス業の雇用の伸びは停滞している。第三に、STEM職の雇用の比率は、ソフトウェアとコンピューター関連の職の伸びが支える形で、2010年以降5割以上増えた。第四に、おそらくはオンライン小売の技術進歩により、小売業の雇用は過去10年に25%低下した。コロナ禍後の労働市場は急速に変化しており、主要な問題は、この加速した変化のペースが今後も持続するのか、である。

自動化と二極化 - himaginary’s diaryで紹介した論文でアセモグルは、自動化は雇用と賃金の二極化をもたらした後、最終的には賃金の二極化ではなく技能プレミアムの単調な増加をもたらす、と論じたが、この論文によるとあるいは米国ではその最終フェーズに移行しつつあるのかもしれない。
「人手不足」は本当か?データからわかる現実とは 労働市場に低待遇で舞い戻ってくる人々の存在 | ニュース・リポート | 東洋経済オンラインでの斉藤誠氏の指摘によると、日本はマクロでは人手不足とは言えない、とのことだが、氏がそこで論じている非労働力人口と失業人口の間の行き来とは別に(あるいはそれと関連して)、業種ないし職種によって人手不足の状況が違うというまだら模様が日本の労働市場の現状を見えにくくしているように思われる。もし日本でも現在人手不足の業種・職種のうちとりわけ低賃金の職で自動化が進んだら、米国と同様に高賃金の雇用だけが伸びていく、という状況がはっきりしてくるのかもしれない。

*1:このサイトには昨年12月にアレックス・タバロックリンクしている

*2:cf. 破壊的技術 - Wikipedia

外延効果によるニューケインジアン経済

というNBER論文が上がっているungated版へのリンクがある著者の一人[石出旭氏]のページ)。原題は「New Keynesian Economics through the Extensive Margin」で、著者はSaki Bigio(UCLA)、Akira Ishide(同*1)。
以下はその要旨。

This paper reformulates the New Keynesian model to incorporate output adjustments through the extensive margin. Shifting from adjustments through the intensive to the extensive employment margin, the model introduces predetermined output, altering key properties of the New Keynesian framework. First, the Taylor principle is inverted: stability is achieved when nominal rates respond less than one-for-one with inflation. Second, the model significantly alters the output responses to changes in monetary policy. We argue that this represents a challenge and an opportunity for the literature. Sticky information allows the model to correct the sign of impulse responses.
(拙訳)
本稿はニューケインジアンモデルを再定式化し、外延効果を通じた生産の調整を織り込んだ。内延効果から外延効果による雇用調整に変更すると、モデルは先決的な生産を導入し、ニューケインジアンの枠組みの主要な特性が変わる。第一に、テイラー原理は逆転する。即ち、安定性は、名目金利が1対1よりも小幅で反応すると達成される。第二に、モデルは金融政策の変更に対する生産の反応を有意に変える。このことは、この分野の研究にとって課題と機会を提供する、と我々は論じる。粘着的な情報は、モデルがインパルス応答の符号を変えることを許容する。

ニューケインジアンモデルの標準的なバージョンでは労働時間の調整(内延効果)に頼ってきたため、失業と求人、ならびにそれらの労働指標とインフレや政策金利との統計的関係に関する実証的な予想ができなかった。実際の主たる調整手段である雇用の調整(外延効果)を取り込むには、ダイアモンド=モーテンセン=ピサリデスのサーチ・アンド・マッチング(SAM)モデルと組み合わせる必要があるが、後者には生産が先決的という問題がある。そのため、これまでの試みでは求人後の雇用が即座に発生すると仮定してきたが、その仮定はSAMモデルのそもそもの趣旨であるフローとストックの区別を曖昧にするだけでなく、期間の単位の選択(年、四半期、月、日)によって結果が変わってくるという理論的な問題も引き起こす。
この論文では、SAMモデルの整合的なタイミングに戻した場合、NK+SAMモデルの主要な予測が反転することを示したとの由。そのうちのテイラー原理の逆転には3つの利点*2があるが、政策金利を引き下げると生産が減るという予測はよろしくないので、完全情報の合理的予想というルーカスの島モデルから離れ、総消費への応答を時間的に分散させる必要があるだろう、とのことである。

*1:前述のHPによると4月から東大。

*2:均衡決定が均衡外の脅迫(cf. これ)ではなく初期条件の存在によって達成されること、金融ショックへのこぶ型のインパルス応答関数が批判の多い習慣形成や資本調整コストといった追加的摩擦抜きで生成されること、テイラー原理が無ければ内生的な金融政策の反応と分離してショックを追究できること。

早期介入は将来の子供の虐待を減らせるか?

というNBER論文が上がっている。原題は「Can Early Intervention Reduce Future Child Maltreatment?」で、著者はAnna Aizer(ブラウン大)、Emilia Brito Rebolledo(同)。
以下はその要旨。

Children with a disability are 3.5 times more likely to be maltreated. Federal Early Intervention (EI) serves 426,000 children 0-3 with a disability, 3.7% of the entire population under three. EI’s objective is to support families in caring for their children’s special needs. Compared to children evaluated but ineligible for EI, children receiving EI in the first year of life are 3.3 percentage points less likely to be maltreated later in life, a decline of 45%, with smaller effects for those receiving services later. Targeting at-risk children, intervening early, and engaging with families in a cooperative manner effectively reduces future maltreatment.
(拙訳)
障害を持つ子供は虐待を受ける可能性が3.5倍になる。連邦早期介入(EI*1)は、3歳児以下の総人口の3.7%に相当する障害を持つ42万6千人の0-3歳の子供にサービスを提供している。EIの目的は、子供の特別なニーズの面倒をみている家族を支援することにある。生後1年間にEIを受けると、審査されたがEIを受ける資格を得られなかった子供と比べて、その後の人生で虐待を受ける可能性は3.3%ポイント低下する。これは45%の低下で、サービスを受けるのがそれよりも遅くなると効果は小さくなる。リスクのある子供を対象として早期に介入し、家族と協調的な形で関与することは、将来の虐待を効果的に減らす。

フィッシャー=シュルツ講演:分離不可能なパネルデータの線形推定

というNBER論文が上がっている。原題は「Fisher-Schultz Lecture: Linear Estimation of Structural and Causal Effects for Nonseparable Panel Data」で、著者はVictor Chernozhukov(MIT)、Ben Deaner(ユニバーシティ・カレッジ・ロンドン)、Ying Gao(MIT)、Jerry A. Hausman(MIT)、Whitney Newey(同)。
以下はその要旨。

This paper develops linear estimators for structural and causal parameters in nonparametric,nonseparable models using panel data. These models incorporate unobserved, time-varying, individual heterogeneity, which may be correlated with the regressors. Estimation is based on an approximation of the nonseparable model by a linear sieve specification with individual specific parameters. Effects of interest are estimated by a bias corrected average of individual ridge regressions. We demonstrate how this approach can be applied to estimate causal effects, counterfactual consumer welfare, and averages of individual taxable income elasticities. We show that the proposed estimator has an empirical Bayes interpretation and possesses a number of other useful properties. We formulate Large-T asymptotics that can accommodate discrete regressors and which bypass partial identification in this case. We employ the methods to estimate average equivalent variation and deadweight loss for potential price increases using data on grocery purchases.
(拙訳)
本稿は、パネルデータを用いて、ノンパラメトリックかつ分離不可能*1なモデルにおける構造的で因果的なパラメータについての線形推定量を構築する。こうしたモデルは、説明変数と相関している可能性のある、観測されない時変的な個別の不均一性を織り込んでいる。推計は、個別の特定のパラメータの線形篩仕様*2による分離不可能モデルの近似に基づいている。分析対象の効果は、個別のリッジ回帰のバイアスを修正した平均で推計される。我々は、因果効果、反実仮想的な消費者の厚生、および個別の課税所得の弾力性の平均の推計にこの手法がどのように適用できるかを示す。提示された推計量が実証的なベイズ解釈を有するとともに、他の多くの有用な特性を持つことを我々は示す。我々は、離散的な説明変数を許容し、その場合に部分識別*3を迂回する大きなTの漸近性を定式化した。我々はこの手法で、食料雑貨購入データを用いて、価格が上昇した場合の平均等価変分*4と死荷重損失を推計した。

計量経済学*5のフィッシャー=シュルツ講演のサイトはFisher-Schultz Lecture | The Econometric Societyで、今回の論文の対象である2023年講演はyoutube上がっている。講演者は論文の共著者のうちのWhitney Newey(Whitney K. Newey - WikipediaによるとNewey–West estimatorで最も有名との由)。

*1:ググって見つけたこれこれなどによると、擾乱項などの観測できない項目が加法的な形でモデルに入っておらず、分離可能でないことを指すらしい。

*2:cf. セミパラメトリック条件付きファクターモデル:推計と推定 - himaginary’s diary

*3:Set identification - Wikipedia

*4:cf. Equivalent variation - Wikipedia等価変分 | 消費者理論 | ミクロ経済学 | 経済学 | ワイズ

*5:cf. Econometric Society - Wikipedia

42か国におけるCEOと企業のミスマッチと生産性

というNBER論文が上がっているungated(SSRN(EBRD))版)。原題は「CEO-Firm Matches and Productivity in 42 Countries」で、著者はAmanda Dahlstrand(チューリッヒ大)、Dávid László(LSE)、Helena Schweiger(欧州復興開発銀行)、Oriana Bandiera(LSE)、Andrea Prat(コロンビア大)、Raffaella Sadun(ハーバード大)。
以下はその要旨。

Firms are key to economic development, and CEOs are key to firm productivity. Are firms in countries at varying stages of development led by the right CEOs, and if not, why? We develop a parsimonious measure of CEO time use that allows us to differentiate CEOs into “leaders” and “managers” in a survey of 4,800 manufacturing firms across 42 countries, with income per capita ranging from USD 4,000 to 45,000. We find that poorer countries have fewer leaders and relate this to training opportunities. Even when suitable leaders are available, they often do not lead the firms that would benefit the most, resulting in mismatches that can cause up to a 20% loss in productivity for the mismatched firms. The findings imply that policies that address the causes of mismatch could significantly enhance growth without additional resources.
(拙訳)
企業は経済発展の鍵であり、CEOは企業の生産性の鍵である。各種の発展段階にある国の企業は正しいCEOに率いられているのだろうか、そしてもしそうでないのであれば、それはなぜか? 我々はCEOの時間の使い方のパラメータ節約的な指標を開発したが、それによって、一人当たり所得が4,000~45,000米ドルにまたがる42か国の4,800の製造業企業のサーベイにおいて、CEOを「リーダー」と「マネージャー」に区分することができた。国が貧しいほどリーダーは少なくなることを我々は見い出し、そのことを訓練の機会と関連付けた。適切なリーダーが利用可能な場合でも、最も多くの人に恩恵を与える企業のリーダーとならないことが多い。その結果として生じたミスマッチは、ミスマッチの起きた企業において生産性の最大2割の損失をもたらす。この発見は、ミスマッチの原因に対処した政策によって追加資源なしに成長を有意に高めることができることを示している。

著者のうちBandiera、Prat、Sadunらの以前の研究(CEO Behavior and Firm Performance | Journal of Political Economy: Vol 128, No 4ungated版)ではCEOの日記データを収集したが、さすがにそれを多くの国に拡張するのは無理なので、その中からCEOの時間の使い方に関する以下の5項目をピックアップしてサーベイした(正確には他のサーベイ*1に相乗りする形で質問を突っ込んだ)、との由。

  1. Cスイートの重役(C-suite executives*2)、役員(board members)、事業体マネージャー(business unit managers)、もしくは親会社のマネージャーとの会議
  2. サプライヤーとの会議
  3. 生産活動に従事する従業員との会議
  4. 一人より多い参加者のいる会議
  5. 1時間以上の会議

このうちサプライヤーとの会議と生産活動に従事する従業員との会議は純粋なリーダーの行動の確率と負の相関があったが、他は正の相関があったという。
残念ながら調査対象の42か国に日本は含まれていないが、日本についてサーベイを実施した場合の結果を知りたいところではある。

*1:EBRD-EIB-WBG Enterprise Surveys。なお、そちらのサーベイは41か国が対象で、今回の論文の表A.1と比較するとスペインが入っていない(理由は不明)。

*2:cf. Cスイート - Google 検索

大都市は経済成長にとって重要なのか?

というNBER論文が上がっているungated版)。原題は「Are Big Cities Important for Economic Growth?」で、著者はMatthew Turner(ブラウン大)、David N. Weil(同)。
以下はその要旨。

Cities are often described as engines of economic growth. We assess this statement quantitatively. We focus on two mechanisms: a static agglomeration effect that makes production in bigger cities more efficient, and a dynamic effect whereby urban scale impacts the productivity of invention, which in turn determines the speed of technological progress for the country as a whole. Using estimates of these effects from the literature and MSA-level patent and population data since 1900, we ask how much lower US output would be in 2010 if city size had been limited to one million or one hundred thousand starting in 1900. These effects are small. If city sizes had been limited to one million people since 1900, output in 2010 would have been only 8% lower than its observed value.
(拙訳)
都市は良く経済成長のエンジンと評される。我々はこの主張を定量的に評価した。我々は2つのメカニズムに焦点を当てた。都市がより大きければ生産がより効率的になるという静的な集積効果と、都市の規模が発明の生産性に影響し、それがさらに国全体の技術進歩の速度を決定するという動的効果である。従来の研究におけるこれらの効果の推計値、および、1900年以降のMSA(大都市統計地域*1)レベルの特許と人口のデータを用いて我々は、都市の規模が1900年以降百万もしくは十万に制限されていた場合に2010年の米国の生産がどれほど低くなっていたであろうか、という問いを追究した。その効果は小さかった。1900年以降に都市の規模が百万人に制限されていた場合、2010年の生産は観測された値に比べて8%低くなっていたに過ぎない。

結論部では、自分たちの推計ないし結論が間違っている可能性を4つ挙げている。

  1. 生産性における都市の規模の効果、ないし研究における同様の規模の効果のパラメータ化を誤った。
    • しかし各研究で推計されたパラメータの範囲の高い端を用いても、結論がひっくり返ることは無かった。
  2. 静学にせよ動学にせよ、自分たちが拾い損ねた都市の規模の効果があった。
    • その点は直前の節で論じた。
  3. 都市の規模が制限された場合、都市の数が多くなり、その中には実際に観測されたのとは違う基本的な生産性を持つものも出てくるだろう。それは、新たな都市が実際の都市ほど望ましい場所に立地していないためであろう。
    • もしそうならば、経済成長のエンジンは都市そのものというよりも良い立地ということになる。
  4. 解釈の違い。都市の規模の効果が米国の経済成長の1割を説明するのであれば、成長のエンジンと言って良いのでは、という人もいるかもしれない。