科学ちゃんねる

科学を中心としたまとめです。

人気記事

    AI

      このエントリーをはてなブックマークに追加
    1: ばーど ★ 2018/10/18(木) 18:01:26.35 ID:CAP_USER9
    JR東日本が、AI(人工知能)技術を用いた無人決済システムの実験店舗を、赤羽駅(東京都北区)の5・6番ホームに10月17日オープンする。店内のカメラが客の動き、手に取った商品を認識し、購入額の計算から決済まで自動で行う。発表を受け、ネットでは「便利そうだ」「レジ待ちが解消される」という声の他、「万引き対策は十分なのか」といった疑問も出ている。同社から許可を得て、記者が検証してみた。

    【写真】無人店舗の店内
    入口でSuicaなど交通系ICカードをかざして入店
    kf_jreast_02

    >>追加の記事を読む

      このエントリーをはてなブックマークに追加
    1: しじみ ★ 2018/09/28(金) 12:16:23.01 ID:CAP_USER
     「ウゼェんだよ! 見んなハゲ!」「あははは! クソ豚!」――ユーザーが入力した言葉の意味を推測し、さまざまな罵詈雑言を浴びせるAI(人工知能)「罵倒少女」が登場したのは2016年のことだった。イラスト投稿サイト「pixiv」で公開されると、12日間で延べ26万人に合計734万回罵倒し、話題を呼んだ。18年3月には丸井グループともコラボレーションした。

     罵倒少女は、コミュニケーションに特化したAI「PROJECT Samantha」(プロジェクト・サマンサ)の取り組みの1つだ。9月19日に都内で開かれたイベント「AI MEETUP 2」で、プロジェクトに携わるソニー・ミュージックエンタテインメント(SME)の井上敦史さんが、キャラクターAIの開発で得た知見、今後の展望を語った。

    >>追加の記事を読む

      このエントリーをはてなブックマークに追加
    ai_pet_family
    1: 野良ハムスター ★ 2018/09/04(火) 00:07:54.82 ID:CAP_USER
    政府は来年度から、日本発の革新的な技術開発を推進するため、複数の研究者らに予算を配分し、同じ開発テーマの成果を競わせる新制度を始める方針を固めた。10~20年後をめどに、高齢化対策や防災など、政府が定めた開発テーマに沿った新技術の実現を目指す。

    新制度は「ムーンショット型研究開発制度」と命名され、内閣、文部科学、経済産業の3府省合同で実施する。来年度予算の概算要求で内閣、文科両府省が関連予算に約60億円を計上した。今後、経産省分予算が上乗せされ、要求総額は100億円を超える見通しだ。

    スレッドURL: http://egg.5ch.net/test/read.cgi/scienceplus/1535987274/



    >>追加の記事を読む

      このエントリーをはてなブックマークに追加
    1: しじみ ★ 2018/09/02(日) 12:20:04.78 ID:CAP_USER
    「同じ技術レベルでも、論文を出していないだけで評価されないこともある。日本はAIの研究者をはじめ、どんどん論文を出していくべき」――AIベンチャー・コーピー(東京都文京区)の山元浩平CEOは、こう話す。

     8月30日、東京・大手町で開催されたイベントで、日本のAIスタートアップ関係者らが登壇した。

    スレッドURL: http://egg.5ch.net/test/read.cgi/scienceplus/1535858404/

    >>追加の記事を読む

      このエントリーをはてなブックマークに追加
    1: しじみ ★ 2018/08/16(木) 12:19:36.11 ID:CAP_USER
    IBMが開発した人工知能システム「Watson(ワトソン)」は、2011年にアメリカで行われたクイズ大会「Jeopardy!」に出場し、人間の参加者よりも多くの賞金を獲得して世界的な注目を浴びました。そんなワトソンを利用した医療診断システムをIBMは開発しており、これまでに多額の投資を行ってきましたが、「ワトソンの診断システムは実用的なレベルにはほど遠い」という主張が専門家らによってなされています。

    Playing Doctor with Watson: Medical Applications Expose Current Limits of AI - SPIEGEL ONLINE
    http://www.spiegel.de/international/world/playing-doctor-with-watson-medical-applications-expose-current-limits-of-ai-a-1221543.html

    IBMは多額の資金を投入して開発したワトソンを、医療分野に応用しようと試みています。世界の医療業界は数兆ドル(約数百兆円)もの巨大なマーケットであり、人間がさまざまな病気を克服したいという希望を持ち続ける限り、今後も成長し続ける見込みもあります。医療分野は毎日のように新たな研究成果が発表されるため、医療知識の量は3年ごとに2倍になるともいわれており、人間の医者では追い切れない最新の医療トレンドを蓄積できる人工知能を医療分野に応用しようとする試みは、理にかなっていると感じられます。

    病気の診断にワトソンを利用するプロジェクトは、ドイツのギーセン大学とマークブルク大学の付属病院で行われていました。IBMはワトソンの医療診断システムの優秀さを証明しようとしましたが、実際にはワトソンの病気診断システムが期待されていたほど優秀でないことが判明してしまいました。たとえば、来院した患者が胸の痛みを訴えている場合、通常の医師であれば心臓発作や狭心症、大動脈の破裂などをまず最初に疑います。ところが、ワトソンは胸の痛みという症状の背後には、珍しい感染症があるという不可解な診断を下したとのこと。

    Rhön-Klinikum AGというマークブルク大学付属病院を傘下に持つ医療機関でCEOを務めるシュテファン・ホルツィンガー氏は、マークブルク大学で行われていたワトソンの臨床テストを見学し、「ワトソンに専門的な医学的理解があるとは思えず、このプロジェクトを継続するのはラスベガスのショーに投資するのと変わらない」と感じたそうです。


    結局、ホルツィンガー氏はワトソンを実際の患者の診察に応用する前の段階で、IBMとのプロジェクトを打ち切ると2017年に決定しました。ところが、IBMは単なる打ち切りに終わった大学病院におけるプロジェクトを、まるで「成功したテスト」であるかのように宣伝していると、ホルツィンガー氏は述べています。

    マークブルク大学でワトソンが直面した大きな問題には、言語の認識もあったとされています。ワトソンは患者の病気を診断する時に、医者が患者から得た情報をまとめた文書やカルテ、検査結果などをスキャンし、病気の手がかりとなる情報を得ていたとのこと。ところが、ワトソンは文章の複雑な言い回しをうまく理解することができず、正確な診断結果を下すことができなかったそうです。たとえば、医者が使う「~という可能性を排除することはできない」という否定寄りの微妙なフレーズの解釈は、ワトソンにとって非常に難しいものだったとのこと。

    加えて、医師も患者の診断結果を非常に簡略化して書く傾向にあり、「HR 75, SR, known BAV」と書けば「平常時の心拍数が75、大動脈二尖弁あり」ということを意味しますが、ワトソンはソフトウェアにこれらの略語を学習させるまで、文章の意味を理解することができません。一度学習させればワトソンも略語を理解することができますが、ワトソンに医師のカルテを理解させるためには、膨大な数の略語をソフトウェアに登録する必要があります。

    もちろん、ワトソン以外の人工知能による医療診断が完璧だというわけではなく、Isabel Healthcare platformやPhenomizerといった医療診断システムも、完璧な診断結果を得られるわけではありません。ワトソンが診断を誤ってしまうことも仕方のないことではありますが、IBMはワトソンを「他のどの医療診断システムよりも優れている」と主張しており、ドイツの大学病院における失敗はIBMにとって喜ばしいものではないとのこと。

    https://i.gzn.jp/img/2018/08/16/watson-expose-current-ai-limit/05_m.jpg
    no title

    GIGAZINE
    https://gigazine.net/news/20180816-watson-expose-current-ai-limit/
    続く)

    >>追加の記事を読む

      このエントリーをはてなブックマークに追加
    1: しじみ ★ 2018/05/19(土) 23:04:18.85 ID:CAP_USER
    人工知能(AI)を使ったコンピューターに、より正確な判断を行わせるには学習が不可欠とされています。
    学習の量が増えれば増えるほど、より高度な判断を行うことができるのですが、
    学習量を増やすためには大規模な処理をこなせる「計算量の高い」システムが必要です。
    AIの非営利の研究機関として設立されたOpenAIによると、
    AIの学習で使用される計算量は2012年から3.5カ月で倍になるスピードで進化し続けていて、
    2018年現在では約30万倍以上に達しているとのことです。

    AI and Compute
    https://blog.openai.com/ai-and-compute/
    no title


    OpenAIは「アルゴリズム」「学習データ」「計算量」の3つが、
    AIを進歩させるために必要不可欠な要素であると述べています。
    アルゴリズムやデータの改良は数値化させることは困難ですが、計算量は定量化可能であり、
    計算量の推移を見ることでAIがどれだけ進歩しているかを見ることができるとしています。

    OpenAIは、2012年以降にAIの学習で使用された計算量の推移をグラフで示しています。
    縦軸が計算量で1日で何千兆(1015)回の計算を行うことができるかを表しており、横軸が時間軸(年)を示しています。
    なお、縦軸に「FLO」(浮動小数点演算)と書かれていますが、実際には処理の数であり、
    必ずしも浮動小数点演算を行っているわけではないとのこと。
    https://i.gzn.jp/img/2018/05/17/ai-and-compute/01_m.png

    >>追加の記事を読む

      このエントリーをはてなブックマークに追加
    1: しじみ ★ 2018/07/21(土) 15:53:21.82 ID:CAP_USER
    総務省情報通信政策研究所は、AIのネットワーク化に関する報告書を公表した。
    有識者会議が取りまとめたもので、医療診断などで想定される便益や課題を提示。AIの誤診で患者の症状が悪化した場合、
    ブラックボックス化されていて判断の経緯などを説明できないと、
    患者やその家族らの理解が得られない恐れがあることを挙げている。

    この報告書は、「AIネットワーク社会推進会議」(議長=須藤修・東大大学院情報学環教授)が取りまとめたもので、
    さまざまな分野でAIが活用されることを想定し、
    AIのネットワーク化が社会・経済にもたらす影響の評価を行った上で課題を整理した。

     医療診断については、AIによる画像診断で病気の早期発見や見落としの改善につながるほか、
    医師の負担が軽減されることを指摘。遠隔診断で専門医のいない地域でも適切な診断を受けられるようになり、
    「医師不足・偏在などの問題の解決に貢献できるようになる」と予測している。

     その一方で、想定される課題も挙げている。AIの誤診によって適切な治療が行われず、患者の症状が悪化した場合、
    「なぜ誤診したのか、AIがどのような判断をしたのか説明できないと、
    患者や家族などの理解が得られない恐れがある」としている。

     また、AIがハッキングの被害に遭い、患者の医療データが流出するケースも想定。
    ネットワークを介して他のAIシステムとデータが共有されたり、
    さまざまなデータが統合されたりすることで個人が特定され、重大なプライバシーの侵害につながる恐れがあるとしている。

    no title


    https://www.cbnews.jp/news/entry/20180719200753

    >>追加の記事を読む

      このエントリーをはてなブックマークに追加
    ai_kenka
    1: しじみ ★ 2018/07/07(土) 13:03:11.22 ID:CAP_USER
    Googleと同じAlphabetを母体に持ち、世界最強の囲碁AI「AlphaGo Zero」を開発した
    人工知能(AI)開発企業・DeepMindが、ファーストパーソン・シューティング・ゲーム(FPS)で
    人間を超えた勝率をたたき出すAI「For the Win(FTW)」を開発しました。ただ敵を倒すだけではなく、
    人間のチームメイトとも協力して有利にゲームをプレイすることができるとのことです。

    Capture the Flag: the emergence of complex cooperative agents | DeepMind
    https://deepmind.com/blog/capture-the-flag/

    >>追加の記事を読む

      このエントリーをはてなブックマークに追加
    ai_kenka
    1: しじみ ★ 2018/07/19(木) 10:12:00.19 ID:CAP_USER
    我々は自律型致死兵器の開発、生産、取引、使用に参加しないし、支援もしない――。
    人工知能(AI)の軍事利用が現実味を帯びる中、世界のAI研究者や企業経営者らが、
    人を介さずにAIの判断による攻撃を想定する自律型致死兵器を開発しないことなどを盛り込んだ「誓い」に賛同したことが18日、
    ストックホルムで開催中の国際人工知能学会で発表された。

     発表者のマサチューセッツ工科大学(MIT)のマックス・テグマーク教授によると、賛同者には米電気自動車メーカー、
    テスラのイーロン・マスク最高経営責任者(CEO)ら著名企業経営者ら約2400人のほか、
    グーグル傘下のAI企業「ディープマインド」や欧州のAI関係学会など160組織が入っているという。
    また、米軍の研究機関のAI研究者や慶応大の栗原聡教授らの名前も賛同者リストに掲載されている。
    公式ウェブサイトによると、日本時間19日午前9時時点で、2492人、172組織まで賛同が増えた。

     誓いは「軍事機構においてAIはいっそうの役割を担おうとしている。市民、政策担当者、指導者には、
    AIの受け入れられる利用と受け入れられない利用を区別する喫緊の必要性がある」とし、
    「我々は人間の生命を奪う判断を決して機械にゆだねるべきでない」として国際的な規範や法律などによる禁止を求めている。

    続きはソースで

    ■国際人工知能学会で「自律型致死兵器に関する誓い」を発表した
    マサチューセッツ工科大学(MIT)のマックス・テグマーク教授
    https://www.asahicom.jp/articles/images/AS20180719000670_comm.jpg

    朝日新聞デジタル
    https://www.asahi.com/articles/ASL7M24K4L7MULBJ001.html

    >>追加の記事を読む

    このページのトップヘ

    アクセスランキング