淘宝分布式数据库 OceanBase

时间:2023-09-13 08:18:05 其他范文 收藏本文 下载本文

淘宝分布式数据库 OceanBase(精选10篇)由网友“我有病你有药啊”投稿提供,以下是小编整理过的淘宝分布式数据库 OceanBase,欢迎阅读分享,希望对大家有帮助。

淘宝分布式数据库 OceanBase

篇1:淘宝分布式数据库 OceanBase

OceanBase是一个支持海量数据的高性能分布式数据库系 统,实现了数千亿条记录、数百TB数据上的跨行跨表事务,由淘宝核心系统研发部、运维、DBA、广告、应用研发等部门共同完成,在设计和实现 OceanBase的时候暂时摒弃了不紧急的DBMS的功能,例如临时表,视图(view),研发团队把有限的资源集中到关键点上,当前 OceanBase主要解决数据更新一致性、高性能的跨表读事务、范围查询、join、数据全量及增量dump、批量数据导入,

目前OceanBase已经应用于淘宝收藏夹,用于存储淘宝用户收藏条目和具体的商品、店铺信息,每天支持4~5千万的更新操作。等待上线的应用还包括CTU、SNS等,每天更新超过20亿,更新数据量超过2.5TB,并会逐步在淘宝内部推广。

项目主页:www.open-open.com/lib/view/home/1323510339593

篇2:淘宝Oceanbase云存储系统实践

通俗地讲,云计算就是把基础设施以服务的形式打包对外销售,它是一种商业模式,而其中的云存储是技术难点,可以从两个维度分析云存储系统的特 性:功能和可扩展性,这是一个“鱼和熊掌”不容易兼得的问题。不同的数据规模,不同的事务和一致性要求,不同的系统故障容忍度,都可能导致不同的存储系统 设计。国外的互联网巨头 Amazon、Google、Microsoft、Yahoo 都有各自的云存储系统,国内的淘宝也研发了自己的云存储系统 Oceanbase,并开始应用到联机事务处理 OLTP(On-line Transaction Processing)和联机分析处理 OLAP(On-line Analytical Processing)业务。

云存储系统数据结构

为了保证存储系统的可靠性,需要将数据复制为多份。当数据规模增加时,我们可能会对传统的数据库分库分表以水平扩展,很多企业还开发了各自的数 据库中间层以屏蔽分库分表规则。然而,在传统的分库/分表架构下,每一份数据只能为一组 Master-Slave 节点服务,这就导致同一组机器节点存放了完全相同的数据,当其中某个节点发生故障时,只能通过所在机器组中的节点进行故障恢复,这样的系统称为同构系统。

云存储系统一般指异构系统,每份数据可以被动态分配到集群中的任意一个节点,当某个节点发生故障时,可以将故障节点原有服务动态迁移到集群中的任何一台机器。只有实现系统异构才能发挥分布式集群的规模优势,减少集群运维成本,适应云存储系统数据量快速增长的需求。

数据结构决定了云存储系统的功能,云存储系统的数据结构主要有两种:分布式 Hash 表和分布式B+ 树,如图 1 所示。分布式 Hash 表通过比如一致性 Hash 的方式将数据分布到集群中的不同节点,数据随机分布,不支持范围查询;而分布式B+ 树的数据连续存放,支持范围查询,但是需要支持分裂和合并,实现相对较为复杂。

图 1 云存储系统分类图

常见的 Key-Value 系统的数据结构一般为分布式 Hash 表,只支持基本的 Put、Get 和 Delete 操作,比如 Amazon 的 Dynamo 和 S3 系统。而 Amazon Simpledb 按照 domain 进行数据划分,规定同一个 domain 数据量不能超过 10GB,从而可以存放到一个数据节点,用户只允许在同一个 domain 内部执行范围查询操作。Amazon 的云存储系统看起来不完美,但相当实用。

Google 的系统设计之初就强调可扩展性。从最初的 GFS 到 BigTable,再到后来的 Megastore、Percolator,Google 先将系统的可扩展性发挥到极致,以后再逐步加入分布式事务、SQL 支持等功能。这样的设计得益于 Google 强大的工程师团队和公司一直以来崇尚通用系统的文化。Google 的云存储分为两层:分布式文件系统 GFS 和分布式数据库系统 BigTable,GFS 是一个带有追加功能的分布式文件系统,BigTable 将事务的提交日志追加到 GFS 中做持久化。数据在 BigTable 内连续存储,逻辑上构成一棵分布式B+ 树,Megastore、Percolator 又在 BigTable 的基础上加入分布式事务、索引、SQL 支持等功能。Google 的系统设计比较贵族化,可以远观,但模仿前请三思,比如将系统分成多层可能会增加用户操作的延时,对工程师的设计编码能力提出了更高的要求。

Microsoft SQL Azure 是一个传统数据库厂商在云存储系统设计上给出的答案。当数据量增长时,必然要求牺牲部分功能来换取可扩展性,这对于 Microsoft 是不愿意看到的。Microsoft 直接在原有的关系型数据库 SQL Server 上进行分布式扩展,尽可能多地支持 SQL 功能,其功能非常丰富,但系统内部不支持 SQL Azure 实例的分裂和合并。因此,SQL Azure 内部也限制了单个 SQL Azure 实例允许的最大数据量,如 Business Edition 的最大数据量不超过 50GB。相比 Google 的系统,Microsoft 系统的扩展性较弱,但功能较强。

云存储系统的难点在于状态数据的迁移和持久化,状态数据也就是系统的事务提交日志。Google BigTable 通过分布式文件系统 GFS 持久化提交日志,Microsoft SQL Azure 直接将提交日志通过网络复制到数据的多个副本,而 PNUTS 通过 Yahoo!内部的分布式消息中间件 Yahoo! Message Broker 持久化提交日志。Yahoo!没有对外提供云存储服务,但这样的设计可扩展性也是相当不错的。

淘宝 Oceanbase 架构设计

淘宝 Oceanbase 是从 年 5 月开始研发的,其定位是解决淘宝内部在线业务的云存储问题。我们在设计系统时,总是考虑现在及今后一段时间的需求。互联网业务大致可以分为 OLTP 和 OLAP 两类,对在线存储的需求简单归纳如下。

OLTP:今后数据规模为千亿级,数据量百 TB,要求几十万 QPS 和几万 TPS。

OLAP:支持千万级记录的数据集上进行实时计算。

功能:支持范围查询,支持跨行跨表事务。

其他:5个 9 的可用性、自动故障处理、自动扩容等。

OLTP 和 OLAP 业务对性能的要求使我们必须采用分布式方案。另外,淘宝的业务发展迅猛,传统的分库/分表方法带来的扩容及运维成本太高,必须构建异构的云存储系统。通过 进一步分析在线业务,我们发现互联网在线存储业务有一个特点:数据量虽然很大,但新增数据量比较小,每天新增数据量基本在 1TB 之内。此外,淘宝的业务面临一些其他挑战,比如需要高效支持跨行跨表事务,需要支持两张几亿到几十亿条记录的大表进行联表操作。淘宝的海量数据以及复杂的 功能需求对存储系统的设计提出了新的挑战,关系型数据库在数据量上有点儿力不从心,而云存储系统又不能高效地支持复杂的功能要求。因此,需要融合关系型数 据库的功能和云存储系统的可扩展性这两个优点,

如何借鉴已有技术满足淘宝未来一段时间内的云存储需求?如果直接模仿国外的互联网巨头,比如模仿 GFS + BigTable,淘宝的团队确实有一定的经验。然而这样的系统在两年之内很难稳定,并且不能满足跨行跨表事务等复杂的功能需求。既然在线业务新增数据量 比较小,那是否可以把最新修改的数据和以前的数据分离呢?

答案是肯定的。淘宝 Oceanbase 将数据分成动态数据和静态数据两部分:动态数据的数据量较小,侧重 TPS 和 QPS,采用集中式的方法存放到单个节点的高品质存储介质,如内存和 SSD;静态数据的数据量很大,侧重存储容量,采用分布式的方法将数据分布到多台普通 PC 服务器的磁盘或者 SSD。由于动态数据的存储介质成本较高,需要不断地将动态数据合并到静态数据中,从而分布到多台机器以实现分布式存储。

淘宝 Oceanbase 系统架构大致如图 2 所示。从图 2 可以看出,系统有以下几个主要模块。

图 2 Oceanbase 架构图

RootServer:负责数据定位、机器管理、负载均衡、全局表 Schema 信息管理等。

UpdateServer:负责存储动态数据,存储介质为内存和 SSD。

ChunkServer:负责存储静态数据,数据存储 3 份,存储介质为磁盘或者 SSD。

Client:Oceanbase 提供的胖客户端。

写事务只操作 UpdateServer,读事务需要同时读取 ChunkServer 和 UpdateServer。某些操作,比如 OLAP 分析型操作可能需要涉及多个 ChunkServer 上的数据,这时将引入一个新的 MergeServer 模块将请求拆分到不同的 ChunkServer,合并每个 ChunkServer 的返回结果后执行排序、分组、分页等操作。静态数据在 ChunkServer 中保存三份,UpdateServer 通过 Linux HA 的方式进行双机热备以保证可靠性。RootServer 的访问压力很小,一般可以和 UpdateServer 部署在相同节点上,并采用相同的 Linux HA 方式。Oceanbase 的 UpdateServer 在同一个 IDC 机房采用实时同步的方式保证强一致性,这意味着写事务只有等到主机和备机都操作成功后才返回客户端。Oceanbase 支持跨 IDC 机房的异步准实时热备,多个机房之间的数据延迟为秒级。

Oceanbase 的静态数据和 BigTable 类似,数据被分为几十到几百 MB 不等的子表,每个子表的磁盘存储格式为 SSTable,通过 bloom filter、block cache、key value cache 等方式进行优化。SSTable 支持根据 column group 按列存储,从而高效地支持 OLAP 分析。动态数据采用 copy-on-write 的方式实现了单机内存中的B+ 树,在单写多读的应用场景下不需要加锁。

Oceanbase 静态数据构成一棵分布式B+ 树,动态数据为单机B+ 树。与线下 MapReduce 批处理应用不同,在线存储应用的更新量一般比较小,动态数据服务器不会成为性能瓶颈。这也就意味着,淘宝 Oceanbase 用一种更为简便的方式在底层实现了和其他互联网巨头类似的B+ 树数据结构,并且能够高效地支持跨行跨表事务。当然,当数据量增长到万亿级或者数据更新更快时,需要考虑将动态数据服务器的方案由集中式修改为分布式。我 们也考虑过多 UpdateServer 方案的设计,但由于短期内看不到明确的需求,暂时没有实现,目前我们认为可以通过硬件的方法,比如万兆网卡、更好的 CPU、更大的内存和 SSD 来解决。

Oceanbase 还实现了一些分布式系统中常见的特性,比如自动负载均衡、在线修改 Schema、内置压缩解压缩等。另外,Oceanbase 系统里面没有随机写操作,因此天然适应 SSD 存储介质,很好地弥补了磁盘的 IOPS 不足这个问题。

Oceanbase 应用效果和经验

Oceanbase 首先应用在淘宝收藏夹并取得了明显的效果。淘宝收藏夹最初采用 MySQL 分库/分表的方式实现,通过使用 Oceanbase,机器数由原来的 16 台主加上 16 台备共 32 台减少到 12 台静态数据服务器加上 2 台动态数据服务器,大大节省了机器资源。另外,目前应用的很多问题在 Oceanbase 中是通过更好的架构来解决,单机层面基本没做优化,相信后续还有很大的提升空间。在这过程中,我们也积累了一些经验教训。

选择合适的技术。云存储听起来比较神秘,但实际上,对于大多数企业,需要设计好系统可扩展性发展的路线图,当数据规模比较小,可以采用传统的分库分表的方式构建同构系统;当数据规模逐步增加时,可以考虑构建符合企业需求的异构系统。

细节决定成败。云存储更多地是一个工程问题,代码质量、优化细节对系统的表现影响至关重要,淘宝 Oceanbase 的大多数代码都被两个以上的工程师 Review,我们也在减少 Cache 锁粒度、减少上下文切换、减少内存分配和内存拷贝等方面做了很多细粒度的工作。

展望

Oceanbase 目前的主要工作是应用推广,根据应用的需求来逐步完善 Oceanbase 系统,实现互联网数据库的构想。我们已经开始和淘宝的业务团队开展了千万级数据秒级实时分析的 OLAP 项目。另外,Oceanbase 还在考虑整合分布式 Blob 存储系统。随着应用推广的深入和 Oceanbase 系统的优化,希望能在合适的时间进行数据库新基准 TPC-E的测试。

另外一个振奋人心的消息是:Oceanbase 将在合适的时间点开源。相信通过业界同仁一起努力,一定能够将云存储这个问题解决好!

作者杨传辉,花名日照,淘宝存储系统专家,热衷于分布式存储和计算系统设计,对分布式系统理论和工程实践有比较深厚的理解。之前在百度作为核心成员主导或参与 MapReduce、BigTable 和分布式消息队列等底层基础设施架构工作。

来自: www.programmer.com.cn

篇3:分布式数据库 Hypertable

Hypertable是一个开源、高性能、可伸缩的数据库,它采用与Google的Bigtable相似的模型,在过去数年中,Google为在 PC集群 上运行的可伸缩计算基础设施设计建造了三个关键部分。第一个关键的基础设施是Google File System(GFS),这是一个高可用的文件系统,提供了一个全局的命名空间。它通过跨机器(和跨机架)的文件数据复制来达到高可用性,并因此免受传统 文件存储系统无法避免的许多失败的影响,比如电源、内存和网络端口等失败,

第二个基础设施是名为Map-Reduce的计算框架,它与GFS紧密协作,帮 助处理收集到的海量数据。第三个基础设施是Bigtable,它是传统数据库的替代。Bigtable让你可以通过一些主键来组织海量数据,并实现高效的 查询。Hypertable是Bigtable的一个开源实现,并且根据我们的想法进行了一些改进。

项目主页:www.open-open.com/lib/view/home/1339253305568

篇4:分布式数据库概述

一、前言

随着传统的数据库技术日趋成熟、计算机网络技术的飞速发展和应用范围的扩充,数据库应用已经普遍建立于计算机网络之上,这时集中式数据库系统表 现出它的不足:数据按实际需要已在网络上分布存储,再采用集中式处理,势必造成通信开销大;应用程序集中在一台计算机上运行,一旦该计算机发生故障,则整 个系统受到影响,可靠性不高;集中式处理引起系统的规模和配置都不够灵活,系统的可扩充性差。在这种形势下,集中式DB的“集中计算”概念向“分布计算” 概念发展。分布计算主要体现在客户机/服务器模式和分布式数据库体系结构两个方面。

二、分布式数据库系统概述

随着传统的数据库技术日趋成熟、计算机网络技术的飞速发展和应用范围的扩大,以分布式为主要特征的数据库系统的研究与开发受到人们的注意。分布 式数据库是数据库技术与网络技术相结合的产物,在数据库领域已形成一个分支。分布式数据库的研究始于20世纪70年代中期。世界上第一个分布式数据库系统 SDD-1是由美国计算机公司(CCA)于1979年在DEC计算机上实现。20世纪90年代以来,分布式数据库系统进入商品化应用阶段,传统的关系数据 库产品均发展成以计算机网络及多任务操作系统为核心的分布式数据库产品,同时分布式数据库逐步向客户机/服务器模式发展。

三、DDBS(Distributed Database System)的分类

(1)同构同质型DDBS:各个场地都采用同一类型的数据模型(譬如都是关系型),并且是同一型号的DBMS。

(2)同构异质型DDBS:各个场地采用同一类型的数据模型,但是DBMS的型号不同,譬如DB2、ORACLE、SYBASE、SQL Server等。

(3)异构型DDBS:各个场地的数据模型的型号不同,甚至类型也不同。随着计算机网络技术的发展,异种机联网问题已经得到较好的解决,此时依靠异构型DDBS就能存取全网中各种异构局部库中的数据。

四、DDBS的特点和优缺点

DDBS的基本特点:

(1)物理分布性:数据不是存储在一个场地上,而是存储在计算机网络的多个场地上。

(2)逻辑整体性:数据物理分布在各个场地,但逻辑上是一个整体,它们被所有用户(全局用户)共享,并由一个DDBMS统一管理。

(3)场地自治性:各场地上的数据由本地的DBMS管理,具有自治处理能力,完成本场地的应用(局部应用)。

(4)场地之间协作性:各场地虽然具有高度的自治性,但是又相互协作构成一个整体。

DDBS的其他特点

(1)数据独立性

(2)集中与自治相结合的控制机制

(3)适当增加数据冗余度

(4)事务管理的分布性

DDBS的优点

(1)具有灵活的体系结构

(2)适应分布式的管理和控制机构

(3)经济性能优越

(4)系统的可靠性高、可用性好

(5)局部应用的响应速度快

(5)可扩展性好,易于集成现有的系统

DDBS的缺点

(1)系统开销较大,主要花在通信部分 。

(2)复杂的存取结构(如辅助索引、文件的链接技术),在集中式DBS中是有效存取数据的重要技术,但在分布式系统中不一定有效。

(3)数据的安全性和保密性较难处理。

五、数据分片

类型:

(1)水平分片:按一定的条件把全局关系的所有元组划分成若干不相交的子集,每个子集为关系的一个片段,

(2)垂直分片:把一个全局关系的属性集分成若干子集,并在这些子集上作投影运算,每个投影称为垂直分片。

(3)导出分片:又称为导出水平分片,即水平分片的条件不是本关系属性的条件,而是其他关系属性的条件。

(4)混合分片:以上三种方法的混合。可以先水平分片再垂直分片,或先垂直分片再水平分片,或其他形式,但他们的结果是不相同的。

条件:

(1)完备性条件:必须把全局关系的所有数据映射到片段中,决不允许有属于全局关系的数据却不属于它的任何一个片段。

(2)可重构条件:必须保证能够由同一个全局关系的各个片段来重建该全局关系。对于水平分片可用并操作重构全局关系;对于垂直分片可用联接操作重构全局关系。

(3)不相交条件:要求一个全局关系被分割后所得的各个数据片段互不重叠(对垂直分片的主键除外)。

六、数据分配方式

(1)集中式:所有数据片段都安排在同一个场地上。

(2)分割式:所有数据只有一份,它被分割成若干逻辑片段,每个逻辑片段被指派在一个特定的场地上。

(4)全复制式:数据在每个场地重复存储。也就是每个场地上都有一个完整的数据副本。

(5)混合式:这是一种介乎于分割式和全复制式之间的分配方式。

七、体系结构

数据分片和数据分配概念的分离,形成了“数据分布独立型”概念。

数据冗余的显式控制。数据在各个场地的分配情况在分配模式中一目了然,便于系统管理。

局部DBMS的独立性。这个特征也称为“局部映射透明性”。此特征允许我们在不考虑局部DBMS专用数据模型的情况下,研究DDB管理的有关问题。

八、分布式数据库管理系统

接受用户请求,并判定把它送到哪里,或必须访问哪些计算机才能满足该要求。

访问网络数据字典,了解如何请求和使用其中的信息。

如果目标数据存储于系统的多个计算机上,就必须进行分布式处理。

通信接口功能。在用户、局部DBMS和其他计算机的DBMS之间进行协调。

在一个异构型分布式处理环境中,还需提供数据和进程移植的支持。这里的异构型是指各个场地的硬件、软件之间存在着差别。

九、小结

(1)“分布计算”概念突破了集中式DBS的框架,数据分布使系统走上分布式DB的道路,功能分布使系统走上C/S道路。这是DBS的两个发展。

(2)C/S系统包括一个计算机网络,通常用一个局域网连结。几乎在所有情况下,客户机都是微机;服务器有时用小型机或大型机,但多数情况下也使用微机或高档微机。应用程序在客户机上处理,DBMS和OS的数据管理分放在服务器上。

(3)C/S结构经历了从两层、三层到多层的演变过程。总的趋势是使客户机越来越“瘦”,变成浏览器;而服务器的种类越来越多,容易实现系统的组装。

(4)C/S系统使应用与用户更加贴近,为用户提供较好的性能和更复杂的界面。

(5)分布式系统是在集中式系统的基础上发展而来的。DDB是数据库技术与网络技术结合的产物。随着计算机网络技术的飞速发展,DDBS日趋成为数据库领域的主流方向。

(6)DDB具有数据分布性和逻辑整体性的特点。DDBS能够支持涉及多个场地的全局应用。DDB的数据存储有数据分片和数据分配两种策略。

(7)DDB的模式结构为理解DDBS提供了一种通用的概念结构。分布透明性是DDBS追求的目标。DDBMS是负责管理分布环境下,逻辑集成数据的存取、一致性、有效性和完备性的软件系统。

(8)DDBS中数据分布在各个场地,系统中压倒一切的性能目标是尽量减少网络中传送信息的次数和传送的数据量。分布式查询中基于半联接的优化策略是常用的技术。

(9)对于并发控制和恢复,DDBMS环境中会出现大量在集中式DBMS环境中碰不到的问题。分布式的并发控制有主场地方法和主拷贝方法,再辅之于备份场地技术。

来源: 博客园

篇5:分布式数据库的主要特点

分布式数据库的主要特点

(1)、数据独立性与位置透明性,数据独立性是数据库方法追求的主要目标之一,分布透明性指用户不必关心数据的逻辑分区,不必关心数据物理位置分布的细节,也不必关心重复副本(冗余数据)的一致性问题,同时也不必关心局部场地上数据库支持哪种数据模型.分布透明性的优点是很明显的.有了分布透明性,用户的应用程序书写起来就如同数据没有分布一样.当数据从一个场地移到另一个场地时不必改写应用程序.当增加某些数据的重复副本时也不必改写应用程序.数据分布的信息由系统存储在数据字典中.用户对非本地数据的访问请求由系统根据数据字典予以解释、转换、传送.

(2)、集中和节点自治相结合。数据库是用户共享的资源.在集中式数据库中,为了保证数据库的安全性和完整性,对共享数据库的控制是集中的,并设有DBA负责监督和维护系统的正常运行.在分布式数据库中,数据的共享有两个层次:一是局部共享,即在局部数据库中存储局部场地上各用户的共享数据.这些数据是本场地用户常用的.二是全局共享,即在分布式数据库的各个场地也存储可供网中其它场地的用户共享的数据,支持系统中的全局应用.因此,相应的控制结构也具有两个层次:集中和自治.分布式数据库系统常常采用集中和自治相结合的控制结构,各局部的DBMS可以独立地管理局部数据库,具有自治的功能.同时,系统又设有集中控制机制,协调各局部DBMS的工作,执行全局应用。当然,不同的系统集中和自治的程度不尽相同.有些系统高度自治,连全局应用事务的协调也由局部DBMS、局部DBA共同承担而不要集中控制,不设全局DBA,有些系统则集中控制程度较高,场地自治功能较弱。

(3)、支持全局数据库的一致性和和可恢复性,

分布式数据库中各局部数据库应满足集中式数据库的一致性、可串行性和可恢复性。除此以外还应保证数据库的全局一致性、并行操作的可串行性和系统的全局可恢复性。这是因为全局应用要涉及两个以上结点的数据.因此在分布式数据库系统中一个业务可能由不同场地上的 多个操作组成.例如, 银行转帐业务包括两个结点上的更新操作。这样,当其中某一个结点出现故障操作失败后如何使全局业务滚回呢?如何使另一个结点撤销已执行的操作(若操作已完成或完成一部分)或者不必再执行业务的其它操作(若操作尚没执行)?这些技术要比集中式数据库复杂和困难得多,分布式数据库系统必须解决这些问题.

(4)、复制透明性。用户不用关心数据库在网络中各个节点的复制情况,被复制的数据的更新都由系统自动完成。在分布式数据库系统中,可以把一个场地的数据复制到其他场地存放,应用程序可以使用复制到本地的数据在本地完成分布式操作,避免通过网络传输数据,提高了系统的运行和查询效率。但是对于复制数据的更新操作,就要涉及到对所有复制数据的更新。

(5)、易于扩展性。在大多数网络环境中,单个数据库服务器最终会不满足使用。如果服务器软件支持透明的水平扩展,那么就可以增加多个服务器来进一步分布数据和分担处理任务。

分布式数据库的优点

(1)具有灵活的体系结构 。

(2)适应分布式的管理和控制机构。

(3)经济性能优越 。

(4)系统的可靠性高、可用性好 。

(5)局部应用的响应速度快。

(6)可扩展性好,易于集成现有系统。

分布式数据库的缺点

(1)系统开销大,主要花在通信部分。

(2)复杂的存取结构,原来在集中式系统中有效存取数据的技术,在分成式系统中都不再适用。

(3)数据的安全生和保密性较难处理。

篇6:分布式数据库管理系统 Mnesia

Mnesia是一个分布式数据库管理系统(DBMS),适合于电信和其它需要持续运行和具备软实时特性的Erlang应用,是构建电信应用的控制系统平台开放式电信平台(OTP)的一部分,

Mnesia试图解决典型电信系统的数据管理问题,具备一些在传统数据库中通常找不到的特性。电信应用有许多不同于传统数据库管理系统的需求。用Erlang语言实现的应用程序需要具备宽广的特性,这是传统数据库管理系统无法满足的。

Mnesia的设计要求如下:

快速实时的键(key)/值(value)查找

主要用于运营和维护的非实时复杂查询

由于分布式应用导致的分布式数据

高容错

动态重配置

复杂对象

Mnesia与其它大部分数据库管理系统的区别在于其是被设计用于解决电信应用中的典型数据管 理问题,

因此,Mnesia有许多传统数据库的概念,如事务和查询,也有许多电信应用数据管理系统的概念,如高速实时操作,可配置的容错等级(在复制的意 义上)以及不停机进行重新配置的能力等。Mnesia与Erlang编程语言是紧耦合的,使得Erlang几乎成为数据库编程语言。其最大的好处是在操作 数据时由于数据库与编程语言所用的数据格式不同而带来的阻抗失配问题完全消失。

介绍内容来自百度百科

项目主页:www.open-open.com/lib/view/home/1331130157624

篇7:分布式数据库中间件CCobar初始化过程

Cobar-Server的源码地址:GitHub 欢迎Fork,

官方文档描述Cobar的网络通信模块见下图,

Cobar使用了Java的NIO进行处理读写,NIO是Java中的IO复用,而不需要对每个连接都建立一个处理线程。详细请看 非阻塞I/O–Java NIO教程

Cobar的初始化流程图如下:

在Cobar实例化过程中三个XML配置文件的加载类图关系如下(具体的成员没有标明):

这样Cobar系统就在运行了:

每个Processor都启动反应堆的两个线程R和W来处理NIO的输入和输出

一个connector线程,处理和后端的MySQL节点连接

一个acceptor线程,用于接受来自客户端的连接请求,

timer任务包括(时间定期更新、定时执行processor检查,用于清理资源回收、数据节点空闲超时 检查、数据节点心跳包、Cobar集群心跳包)作者:GeekCome出处:极客来原文:分布式数据库中间件–(1) Cobar初始化过程提示:本文版权归作者,欢迎,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接。如果对文章有任何问题,都可以在评论中留言,我会尽可能的答复您,谢谢你的阅读

篇8:淘宝

淘宝_高中议论文

现在,网上购物叫“淘宝”,书店购书叫“淘宝”,连朋友见面问候语也变成了“你淘宝了吗”?“淘宝”似乎成了引领时尚的潮流,成了社会风尚的代名词。即使如此,在商品令琳琅满目的芸芸世界中,淘什么,怎么淘才是我们应当思索的问题。

“淘”者,即满载水与宝物的水缸所经历的反复淘洗,“宝”者,即居室中的宝玉,“淘宝”二字合成便是追求千万次筛选后浮出水面的珍品,但理想与现实并非一致。

淘宝,应该淘出有价值的东西。就拿当今的文化市场来说吧,野史自传溢满书架,风花雪月充斥荧屏,戏说传奇当仁不让,吹捧媚俗广为流行,人们走进书店,在“快餐文学”大行其道的走廊里,很少能够发现价值极高,怡情养性的图书了。当人们寻求快餐阅读的满足,或低俗文化的填充,或刺激情节的消遣,并冠名之“淘宝”时,那么阅读便在很大程度上扭曲了精神享受的意义。如果人们能将封置书架底层的史书典籍翻至上层,能将唐诗宋词奉若至宝,能翻出弃置在一隅的鸿篇巨著细细品读,那么便能够说“淘”到了“宝”,“淘”到了有价值的东西,“淘”到了真正的'精神食粮,精神支柱。举世滔滔,还有几人能够这样沉潜地淘宝?

“淘宝”,要愿意花时间,花精力,仔细“淘”。如今信息社会的信息纷至沓来,时尚世界的时尚蜂拥而至。以至于身前身后全是忙忙碌碌的上班一族,睁眼闭眼都是目不暇接的红绿指数。生活正以令人瞠目结舌的速度增长着,人们不愿花也无暇花时间仔细淘出真正需要的东西。仍然说人们的文化追求。伫足书店,一买就走的现象司空见惯,随意选书不足为奇,言情小说永占销量榜首,新兴作家总是粉丝最多。人们不愿意花精力寻求陈旧宣纸中沉淀的精深博大,不愿意花时间细品书香竹卷中散发的翰墨流香,,如果人们静下心来,积蓄一缕情愫,那么伫足墨香中就多了一份泛黄的感动。

对于“淘宝”,我们也要冷静思考,辩证分析。有的人拥有有价值的东西却茫然无觉,有的人花了很多时间精力却一无所获,因此在“淘宝”之前,我们应有目标地去“淘”,有准备地进行“淘”,“淘”到后不停翻阅,不断欣赏,使之成为自己的精神内核,储蓄为自身的文化要素,那么这样的“淘宝”才是货真价实的,是我们大力提倡的,也是我们所共同追求的。

学会“淘宝”,“淘”出自己的宝,“淘”出有价值的珍宝!

篇9:淘宝道歉信

亲爱的顾客:

你好!

我是小护士养生馆店主小周。首先感谢亲对小店的支持。因为小店的产品给亲亲带来的困扰,小周在这里向您表示诚意的道歉。真的很对不起了!小周都是非常诚意为每一位买家服务的,做点小生意真的很不容易的,每天都是为亲们深夜工作到三四点的。我们希望多一点沟通,多一点谅解,找到让亲满意的处理办法!

在淘宝上做点小本生意也不容易,生怕哪点做的不够好,顾客不满意,希望亲能体谅。我知道亲是个宽宏大量的人,为此我们全体人员向您表示深深的歉意!!希望亲能原谅!!

xxx

x年x月x日

【关于淘宝道歉信集合5篇】

篇10:淘宝评语

和此卖家交流,不由得精神为之一振,自觉七经八脉为之一畅,我在淘宝买了这么多年,所谓阅商无数,但与卖家您交流,我只想说,老板你实在是太好了,你的高尚情操太让人感动了,本人对此卖家之仰慕如滔滔江水连绵不绝,海枯石烂,天崩地裂,永不变心。交易成功后,我的心情是久久不能平静,自古英雄出少年,卖家年纪轻轻,就有经天纬地之才,定国安邦之智,而今,天佑我大中华,沧海桑田5000年,神州平地一声雷,飞沙走石,大雾迷天,朦胧中,只见顶天立地一金甲天神立于天地间,花见花开,人见人爱,这位英雄手持双斧,二目如电,一斧下去,混沌初开,二斧下去,女娲造人,三斧下去,小生倾倒。得此大英雄,实乃国之幸也,民之福,人之初也,怎不叫人喜极而泣……看着交易成功,我竟产生出一种无以名之的悲痛感——啊,这么好的卖家,如果将来我再也遇不到了,那我该怎么办?直到我毫不犹豫地把卖家的店收藏了,我内心的那种激动才逐渐平静下来,可是我立刻想到,这么好的卖家,倘若别人看不到,那么不是浪费心血吗?经过痛苦的思想斗争,我终于下定决心,牺牲小我,奉献大我。我要以此评价奉献给世人赏阅,我要给好评……评到所有人都看到为止!

分布式数据库概述

网购调查报告范文

武汉工商发布网购调查报告

网购调查报告

精彩网购调查报告

网购市场调查报告范文

淘宝招聘笔试真题

双十一销售额分析报告

软件销售年终总结

电商个人运营计划书

淘宝分布式数据库 OceanBase
《淘宝分布式数据库 OceanBase.doc》
将本文的Word文档下载到电脑,方便收藏和打印
推荐度:
点击下载文档

【淘宝分布式数据库 OceanBase(精选10篇)】相关文章:

居民网上购物状况调查报告2023-02-05

店铺人员分析范文2023-12-22

据文理校释略论2023-02-11

网上购物系统项目计划书2023-04-07

天猫推广专员工作的基本职责内容2022-06-14

经济发展调查报告2023-02-16

大学生校园淘宝的可行性论文2023-09-16

阿里巴巴笔试题统计2022-05-06

天猫运营经理的职责描述是怎样的2022-04-29

基于医院背景下有效激励员工的方式论文2023-03-02

点击下载本文文档