研究チームは、大規模言語モデル(LLM)を活用し、政治的に分極化をもたらす可能性のあるコンテンツへの影響を調べるため、リアルタイムでXのフィードを再ランク付けするアプローチを開発し、ユーザーへの影響を調査した。 実験では、Xのユーザー1256人の協力を得て10日間実施。ブラウザ拡張機能を使用してフィードをリアルタイムでコントロールし、敵意コンテンツ投稿への接触を意図的に増減させた。 参加者は2つの実験群に分けられ、一方は敵意コンテンツへの接触を減らし(727人)、もう一方は増やす(529人)設定にした。実験の最初の3日間は通常のフィードを見せ、その後の7日間で介入を行った。