VentureBeat 2023/7/24 22:03:00(JST)
イーロン・マスクは、機械学習研究者で非営利団体「AIセーフティセンター」のディレクターを務めるダン・ヘンドリックスを、彼の新しいスタートアップ企業xAIのアドバイザーとして迎えた。xAIを含む世界有数のAI研究所が、AIシステムの存在的リスクやxリスクに関する考えを一般の人々にも広めていることが明確になった。しかし、一部のAI研究者やコンピュータ科学者は、この「絶望的な」ナラティブに注目する必要はないと考えている。他のAI専門家も、EAコミュニティとの関係に懸念を抱いており、技術界の人物がその運命をコントロールすることによって、人々を害するAIの優先順位が形成されていると指摘している。
”
イーロン・マスクは、OpenAIの共同設立者である彼が2015年に設立したスタートアップ企業が、AGIを安全に開発するために十分な取り組みをしていないと感じたため、同社を離れたと報じられている。彼はxAIを開発した理由として、「最も安全なAIを構築する方法は、最大限に好奇心を持ち、真実を追求するAIを作ることです」と述べている。OpenAIは、AGIに焦点を当てたミッションを持ち、EAコミュニティとの関係もある。
”
DeepMindは、AGIの将来に強く焦点を当てたAI研究を行っており、EAコミュニティとの関係もある。Anthropicは、OpenAIの元従業員によって設立され、xAIと同様にEAコミュニティとの関係が明確である。これらの企業は、AGIとxリスクに関心を持ち、人類の存続を守るための取り組みを行っている。しかし、一部の専門家は、このようなリスクに対する注目が過剰であると考えており、AIの現在の問題にも目を向けるべきだと主張している。
”
(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:Doomer AI advisor joins Musk’s xAI, the 4th top research lab focused on AI apocalypse.