一般來說我們認識的存儲按照存儲和管理的對象來分的話,基本上可以分為:對象存儲、文件存儲和塊設備存儲。
Ceph在眾多的存儲解決方案是為數不多的在一個方案里面,提供了同時對上述三種存儲支持的一個優秀的開源方案。
Ceph是加州大學Santa Cruz分校的Sage Weil(DreamHost的聯合創始人)專為博士論文設計的新一代分布式文件系統。自2007年畢業之后,Sage開始全職投入到Ceph開 發之中,使其能適用于生產環境。DreamHost在2012年的時候也推出了基于Ceph的公有云對象存儲服務。一個開源軟件,能正在商用,尤其是作為公有云對外提供服務,是需要很大的勇氣的。Ceph已經集成在了Linux內核 (2.6.34之后) 之中,并能很好的使用在OpenStack的云操作系統。事實上OpenStack在未來的版本中會全面集成Ceph。
組件
Ceph是統一分布式存儲系統,具有優異的性能、可靠性、可擴展性。Ceph的底層是RADOS(可靠、自動、分布式對象存儲),可以通過LIBRADOS直接訪問到RADOS的對象存儲系統。RBD(塊設備接口)、RADOS Gateway(對象存儲接口)、Ceph File System(POSIX接口)都是基于RADOS的。

Ceph的核心是RADOS,它是分布式對象存儲系統,由自修復、自管理、智能的存儲節點組成。RADOS作為數據持久層,是RADOS GW、RBD、CEPH FS的基礎。分布式對象存儲的基本問題是如何分布數據到成千上萬個存儲節點上,RADOS的核心是CRUSH(一個可擴展的偽隨機數據分布算法)。CRUSH能夠有效映射數據對象到存儲節點上,而且能夠處理系統的擴展和硬件失效,使得由于存儲節點的添加和移除而導致的數據遷移達到最小化。CRUSH算法在效率和擴展性這兩個矛盾上做了很好的平衡。
RADOS 架構
RADOS系統主要由兩個部分組成:
■ 由數目可變的大規模OSDs(Object Storage Devices)組成的機群,負責存儲所有的數據;
■ 由少量監視器(Monitors)組成的強耦合、小規模機群,負責管理這個集群的分布信息(Cluster Map),其中ClusterMap是整個RADOS系統的關鍵數據結構,管理機群中的所有成員、關系、屬性等信息以及數據的分發。

對于RADOS系統,節點組織管理和數據分發策略均有內部的監視器全權負責,所以,從客戶端角度設計相對比較簡單,它給應用提供的僅為簡單的存儲接口。
Ceph現狀
Ceph項目主要貢獻者(大部分是Inktank公司的員工,因此Ceph目前還是由Inktank公司掌控著)。Ceph本來就有一定的影響力(源于它的架構和功能),大家對它抱有很大的希望。自從inktank公司成立之后,inktank公司也不斷推動Ceph與其他系統的整合,提高Ceph的影響力,目前Ceph支持OpenStack、CloudStack和OpenNebula這三個最流行的云計算框架,以及也支持了事實的大數據標準OpenStack。
2013年Cpeh曾經做出了一個調差,在收到的81份反饋中:
■ 有36個公司在調查Ceph中
■ 有24個公司在預生產環境使用Ceph
■ 有21個公司在生產環境使用Ceph

在生產環境中,已經使用的裸磁盤有1154TB,Dreamhost已經超過 3PB了(收到的反饋中并沒有DreamHost)
在預生產環境中案例中, 最大的一個環境已經達到了20PB,他被用來部署OpenStack。
未來
Ceph統一的架構滿足了云計算和大數據對存儲系統的需求。Ceph背后的力量很大,在商業公司的驅動下 Ceph會被集成到OpenStack、CloudStack、OpenNebula、Hadoop等優秀的開源云計算、大數據系統中;借助這些平臺的力量繼續推廣Ceph。