講演抄録/キーワード |
講演名 |
2018-02-20 10:45
回帰型CNNを用いたiPS細胞の分化・未分化検出 ○田中孝二郎・ライチェフ ビゼル・栗田多喜夫・玉木 徹・金田和文(広島大) PRMU2017-164 CNR2017-42 |
抄録 |
(和) |
あらゆる体細胞に分化できる万能性を持つiPS細胞は,再生医療の実現に向けて需要が高まっている.一方で,培養に手間がかかり,培養過程で細胞死や細胞分化がおきてしまうことから,細胞を大量生産することが困難であるという問題がある.そのためiPS細胞の培養を自動化するための課題の一つとして,細胞に起きる異常を検出することが挙げられる.本稿ではSemantic Segmentationによりこの問題の解決を試みる.従来のpatchベースの分類による手法ではpatch内のトポロジカルな情報が失われるという欠点があった.そこでpatchを複数の小領域に分割し,確率質量関数を計算して回帰によりこれを学習することで,構造的な情報を保持し精度を向上させる手法を提案する.iPS細胞のコロニー画像に加え,ISIC2017 Challengeで公開されたデータセットで検証を行なったところ,いずれの場合でも分類による従来手法より優れた結果が得られた. |
(英) |
Induced pluripotent stem(iPS) cells, which have the ability to differentiate into any other cell type in the body, are already revolutionizing medical therapy. Since a large number of undifferentiated human iPS cells must be prepared for use, the development of an automated culture system for iPS cells is considered to be crucial. Among the multiple procedures involve in the culture system, detection of good/bad cells and the subsequent elimination of bad cells appears to be one of the most important parts. In this paper we propose a method for detection of good/bad colonies of iPS cells by semantic segmentation. Instead of assigning a single class label to the whole patch, we divide local patches into sub-areas and calculate probability mass function(pmf) for each sub-area to preserve structural information, then learning is carried out by regression rather than classification. Experimental result on two dataset show that a CNN using the proposed method outperforms a classification-based CNN. |
キーワード |
(和) |
iPS細胞 / 回帰 / structural information / semantic segmentation / CNN / / / |
(英) |
iPS cells / regression / structural information / semantic segmentation / CNN / / / |
文献情報 |
信学技報, vol. 117, no. 442, PRMU2017-164, pp. 109-114, 2018年2月. |
資料番号 |
PRMU2017-164 |
発行日 |
2018-02-12 (PRMU, CNR) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
PRMU2017-164 CNR2017-42 |