方法論
一次情報を収集し、点数化し、AI に書かせる。その境界を公開します。
なぜこれをやるか
AI 情報は量が多く、しかも一次ソースが英語圏に偏っています。このサイトは、毎日すべてを追う余裕がない人のために、英語圏の一次情報を集め、点数化し、その日の 3 本に圧縮します。
情報源
対象は企業公式ブログ、主要テックメディア、コミュニティ、独立系分析ブログ、専門ニュースレターです。各ソースに fetch 頻度とフィルタ条件を個別設定し、毎日の候補プールを組みます。
企業公式ブログ
OpenAI、Anthropic、Google AI、Google DeepMind、Meta Engineering、NVIDIA AI Blog
テックメディア
MIT Technology Review、The Verge、TechCrunch、Ars Technica、Wired、404 Media
コミュニティと論文
Hacker News の AI 関連投稿、Hugging Face Papers
ニュースレター
Import AI、Ben's Bites、Latent Space、Interconnects、AI Snake Oil、One Useful Thing
独立ブログ
Simon Willison's Weblog
どう選ぶか
選定は 2 段階です。まずアルゴリズムが候補を点数化し、その後 AI editorial が「今日は何を 3 本として語るか」を決めます。
- Cross-source corroboration: 複数の独立ソースが同じテーマを扱っているか
- Community engagement: Hacker News や Hugging Face Papers 上の反応
- Source authority: 企業公式発表や主要メディアを高く評価
- Lead signal boost: 製品公開、利用者急増、訴訟や規制判断のように読者の注意を強く引く動きは 1 本目候補として加点
- Recency: 直近 24 時間の情報を優先
AI editorial
AI editorial は「何が重要か」を決めるのではなく、「今日はどの 3 つの話として語るか」を決めます。分野を散らし、複数ソースを束ね、直近の版と重複しすぎないように調整します。
中立性について
人間はルールだけを直し、本文を都合よく書き換えません。重み、選定ルール、文体指示は人が設定しますが、その日の題材、見出し、本文は AI がルールに従って決めます。
既知の限界
- 小規模チームの重要な研究や、コミュニティ反応の薄いテーマは過小評価される可能性があります。
- AI 生成には誤読リスクがあります。各記事に source links を残し、検証可能性を優先します。
- これは速報型の digest であり、後追い訂正を常時追跡するニュースルームではありません。