这个问题是这样来的。
首先,你应该了解一下使用WCF方法异步(特指使用代理工具生成Begin/EndXXX异步方法)时Begin和End方法的特性。
BeginAdd在执行时并不会阻塞线程,它会立即返回一个IAsyncResult同步对象,该对象是受同步保护的内存块,会跨越一切困难维持着自身的一致性。当然,如果传入了一个回调方法(你的AddCallBack),则BeginAdd开始执行时会在调用方偷偷建立一个线程以等待同步信号,当服务端的Add方法执行完毕后本地线程会调用该回调。
再说EndAdd。此方法实际上是作为一种“保险”来使用,而非你的EndAdd(BeginAdd())这样。EndAdd是会阻塞线程的方法,实际的意义是“等待到Add方法结束并返回”。如此,你应该可以理解注释掉的
ConsoleWriteLine(scEndAdd(scBeginAdd(1, 2, 1000, null, null)));是如何工作的了:
首先sc要求服务端异步执行Add方法且无回调,BeginAdd立即返回,但是EndAdd又要求等待至服务端Add结束。综上,此行代码其实等同于ConsoleWriteLine(scAdd(1,2,1000));
(这里顺便说一句,如果传入了一个回调,在回调开始执行的同时EndAdd也返回了)
那么
//为什么用这两行代码,最后GetOperateCount的结果是2
ConsoleWriteLine(scEndAdd(scBeginAdd(1, 2, 1000, null, null)));
ConsoleWriteLine(scEndSub(scBeginSub(9, 4, 2000, null, null)));
因为其实你的代码都是“同步”的,先加,后减,然后“同步”GetOperationCount。
这一点是很容易验证的,比如你可以在以上两行后都加ConsoleWriteLine(scGetOperationCount());(此为同步方法)可以很明显的看出是先加后减的。
那么
//为什么用这两行代码,最后GetOperateCount的结果是0
IAsyncResult iaAdd= scBeginAdd(1, 2, 1000, AddCallback, sc);
IAsyncResult iaSub = scBeginSub(1, 2, 1000, SubtractCallback, sc);
这个也很好理解,iaAdd和iaSub都被立即返回了,然后立刻”同步“打印了结果(scEndGetOperationCount(scBeginGetOperationCount())等同于scGetOperationCount())。
因为服务端方法执行需要时间,又或者是首次服务实例(你的服务InstanceContextModeSingle)实例化需要时间,很可能在服务端GetOperationCount方法会先于Add和Sub完成并返回,导致了输出为0。
这个也是可以验证的。
验证一:在GetOperationCount服务方法内加入
SystemThreadingThreadSleep(5000);你会看到输出是正确的2,因为5秒内Add和Sub早已返回,连AddCallback和SubtractCallback都已执行完毕(从两个回调的输出可见)。
验证二:我们在服务端Add方法内延时1秒,在Sub方法内延时10秒,在GetOperationCount方法内延时5秒。猜猜看结果?先加再输出再减。(如果条件允许,请在三个服务方法上加断点,可以更好的观察到执行顺序)
以上为你的问题分析。这里我提个小小的建议:请按标准的做法来写程序。
如果需要同步执行,就直接执行同步方法;如果需要执行异步方法,请使用IAsyncResult及回调进行处理。End方法作为一种保险措施,是为了在本地已得知异步执行完毕后通知CLR释放相关资源所用,应该在你等待超过预期时间或者已经处理完异步结果后调用,通常End方法位于回调中,也有少数时间因为同步结果在其他地方处理因为挪到外部的情况。
异步有很多种实现方法,选择适合自己的一种。在不需要处理中间的过程数据时,我个人更喜欢下面的做法。至少省掉了生成异步方法的 *** 作。
ThreadPoolQueueUserWorkItem(()=>{ double result = scSub(ar); ConsoleWriteLine("Subtract Result : " + result);});
就这么多,有问题请PM。
如何优化 *** 作大数据量数据库
下面以关系数据库系统Informix为例,介绍改善用户查询计划的方法。
1.合理使用索引
索引是数据库中重要的数据结构,它的根本目的就是为了提高查询效率。现在大多数的数据库产品都采用IBM最先提出的ISAM索引结构。索引的使用要恰到好处,其使用原则如下:
●在经常进行连接,但是没有指定为外键的列上建立索引,而不经常连接的字段则由优化器自动生成索引。
●在频繁进行排序或分组(即进行group by或order by *** 作)的列上建立索引。
●在条件表达式中经常用到的不同值较多的列上建立检索,在不同值少的列上不要建立索引。比如在雇员表的“性别”列上只有“男”与“女”两个不同值,因此就无必要建立索引。如果建立索引不但不会提高查询效率,反而会严重降低更新速度。
●如果待排序的列有多个,可以在这些列上建立复合索引(pound index)。
●使用系统工具。如Informix数据库有一个tbcheck工具,可以在可疑的索引上进行检查。在一些数据库服务器上,索引可能失效或者因为频繁 *** 作而使得读取效率降低,如果一个使用索引的查询不明不白地慢下来,可以试着用tbcheck工具检查索引的完整性,必要时进行修复。另外,当数据库表更新大量数据后,删除并重建索引可以提高查询速度。
2.避免或简化排序
应当简化或避免对大型表进行重复的排序。当能够利用索引自动以适当的次序产生输出时,优化器就避免了排序的步骤。以下是一些影响因素:
●索引中不包括一个或几个待排序的列;
●group by或order by子句中列的次序与索引的次序不一样;
●排序的列来自不同的表。
为了避免不必要的排序,就要正确地增建索引,合理地合并数据库表(尽管有时可能影响表的规范化,但相对于效率的提高是值得的)。如果排序不可避免,那么应当试图简化它,如缩小排序的列的范围等。
3.消除对大型表行数据的顺序存取
在嵌套查询中,对表的顺序存取对查询效率可能产生致命的影响。比如采用顺序存取策略,一个嵌套3层的查询,如果每层都查询1000行,那么这个查询就要查询10亿行数据。避免这种情况的主要方法就是对连接的列进行索引。例如,两个表:学生表(学号、姓名、年龄……)和选课表(学号、课程号、成绩)。如果两个表要做连接,就要在“学号”这个连接字段上建立索引。
还可以使用并集来避免顺序存取。尽管在所有的检查列上都有索引,但某些形式的where子句强迫优化器使用顺序存取。下面的查询将强迫对orders表执行顺序 *** 作:
SELECT * FROM orders WHERE (customer_num=104 AND order_num>1001) OR order_num=1008
虽然在customer_num和order_num上建有索引,但是在上面的语句中优化器还是使用顺序存取路径扫描整个表。因为这个语句要检索的是分离的行的 ,所以应该改为如下语句:
SELECT * FROM orders WHERE customer_num=104 AND order_num>1001
UNION
SELECT * FROM orders WHERE order_num=1008
这样就能利用索引路径处理查询。
4.避免相关子查询
一个列的标签同时在主查询和where子句中的查询中出现,那么很可能当主查询中的列值改变之后,子查询必须重新查询一次。查询嵌套层次越多,效率越低,因此应当尽量避免子查询。如果子查询不可避免,那么要在子查询中过滤掉尽可能多的行。
5.避免困难的正规表达式
MATCHES和LIKE关键字支持通配符匹配,技术上叫正规表达式。但这种匹配特别耗费时间。例如:SELECT * FROM customer WHERE zipcode LIKE “98_ _ _”
即使在zipcode字段上建立了索引,在这种情况下也还是采用顺序扫描的方式。如果把语句改为SELECT * FROM customer WHERE zipcode >“98000”,在执行查询时就会利用索引来查询,显然会大大提高速度。
另外,还要避免非开始的子串。例如语句:SELECT * FROM customer WHERE zipcode[2,3]>“80”,在where子句中采用了非开始子串,因而这个语句也不会使用索引。
6.使用临时表加速查询
把表的一个子集进行排序并创建临时表,有时能加速查询。它有助于避免多重排序 *** 作,而且在其他方面还能简化优化器的工作。例如:
SELECT custname,rcvblesbalance,……other columns
FROM cust,rcvbles
WHERE custcustomer_id = rcvlbescustomer_id
AND rcvbllsbalance>0
AND custpostcode>“98000”
ORDER BY custname
如果这个查询要被执行多次而不止一次,可以把所有未付款的客户找出来放在一个临时文件中,并按客户的名字进行排序:
SELECT custname,rcvblesbalance,……other columns
FROM cust,rcvbles
WHERE custcustomer_id = rcvlbescustomer_id
AND rcvbllsbalance>0
ORDER BY custname
INTO TEMP cust_with_balance
然后以下面的方式在临时表中查询:
SELECT * FROM cust_with_balance
WHERE postcode>“98000”
临时表中的行要比主表中的行少,而且物理顺序就是所要求的顺序,减少了磁盘I/O,所以查询工作量可以得到大幅减少。
注意:临时表创建后不会反映主表的修改。在主表中数据频繁修改的情况下,注意不要丢失数据。
7.用排序来取代非顺序存取
非顺序磁盘存取是最慢的 *** 作,表现在磁盘存取臂的来回移动。SQL语句隐藏了这一情况,使得我们在写应用程序时很容易写出要求存取大量非顺序页的查询。
有些时候,用数据库的排序能力来替代非顺序的存取能改进查询。
实例分析
下面我们举一个制造公司的例子来说明如何进行查询优化。制造公司数据库中包括3个表,模式如下所示:
1.part表
零件号零件描述其他列
(part_num)(part_desc)(other column)
102,032Seageat 30G disk……
500,049Novel 10M neork card……
……
2.vendor表
厂商号厂商名其他列
(vendor _num)(vendor_name) (other column)
910,257Seageat Corp……
523,045IBM Corp……
……
3.parven表
零件号厂商号零件数量
(part_num)(vendor_num)(part_amount)
102,032910,2573,450,000
234,423321,0014,000,000
……
下面的查询将在这些表上定期运行,并产生关于所有零件数量的报表:
SELECT part_desc,vendor_name,part_amount
FROM part,vendor,parven
WHERE partpart_num=parvenpart_num
AND parvenvendor_num = vendorvendor_num
ORDER BY partpart_num
如果不建立索引,上述查询代码的开销将十分巨大。为此,我们在零件号和厂商号上建立索引。索引的建立避免了在嵌套中反复扫描。关于表与索引的统计信息如下:
表行尺寸行数量每页行数量数据页数量
(table)(row size)(Row count)(Rows/Pages)(Data Pages)
part15010,00025400
Vendor1501,000 2540
Parven13 15,000300 50
索引键尺寸每页键数量页面数量
(Indexes)(Key Size)(Keys/Page)(Leaf Pages)
part450020
Vendor45002
Parven825060
看起来是个相对简单的3表连接,但是其查询开销是很大的。通过查看系统表可以看到,在part_num上和vendor_num上有簇索引,因此索引是按照物理顺序存放的。parven表没有特定的存放次序。这些表的大小说明从缓冲页中非顺序存取的成功率很小。此语句的优化查询规划是:首先从part中顺序读取400页,然后再对parven表非顺序存取1万次,每次2页(一个索引页、一个数据页),总计2万个磁盘页,最后对vendor表非顺序存取15万次,合3万个磁盘页。可以看出在这个索引好的连接上花费的磁盘存取为504万次。
hibernate如何优化大数据量 *** 作?建议你直接用Jdbc好了,用batch,这样是最快的。
如何实现大数据量数据库的历史数据归档打开数据库
conOpen();
读取数据
OdbcDataReader reader = cmdExecuteReader();
把数据加载到临时表
dtLoad(reader);
在使用完毕之后,一定要关闭,要不然会出问题
readerClose();
这个问题是这样的:
首先你要明确你的插入是正常业务需求么?如果是,那么只能接受这样的数据插入量。
其次你说数据库存不下了 那么你可以让你的数据库上限变大 这个你可以在数据库里面设置的 里面有个数据库文件属性 maxsize
最后有个方法可以使用,如果你的历史数据不会对目前业务造成很大影响 可以考虑归档处理 定时将不用的数据移入历史表 或者另外一个数据库。
注意平时对数据库的维护 定期整理索引碎片
时间维度分区表,然后定情按照规则将属于历史的分区数据迁移到,历史库上,写个存储自动维护分区表。
如何用java jdbc 向数据库表插入大数据量一次性插入大量数据,只能使用循环,
如:游标,while 循环语句
下面介绍While 循环插入数据,
SQL 代码如下:
IF OBJECT_ID('dboNums') IS NOT NULL
DROP TABLE dboNums;
GO
CREATE TABLE dboNums(n INT NOT NULL PRIMARY KEY);
DECLARE @max AS INT, @rc AS INT;
SET @max = 5000000;
SET @rc = 1;
INSERT INTO Nums VALUES(1);
WHILE @rc 2 <= @max
BEGIN
INSERT INTO dboNums SELECT n + @rc FROM dboNums;
SET @rc = @rc 2;
END
INSERT INTO dboNums SELECT n + @rc FROM dboNums WHERE n + @rc <= @max;
--以上函数取自Inside SQL Server 2005: T-SQL Query一书。
INSERT dboSample SELECT n, RAND(CAST(NEWID() AS BINARY(16))) FROM Nums
php 怎么解决 大数据量 插入数据库ini_set('max_execution_time','0');
$pdo = new PDO("mysql:host=localhost;dbname=test","root","123456");
$sql = "insert into test(name,age,state,created_time) values";
for($i=0; $i<100000; $i++){
$sql ="('zhangsan',21,1,'2015-09-17')";
}
$sql = substr($sql,0,strlen($sql)-1);
var_dump($sql);
if($pdo -> exec($sql)){
echo "插入成功!";
echo $pdo -> lastinsertid();
}
试试吧。10万条1分钟多,我觉得还行
请教如何通过WCF传输大数据量数据就是直接把DataSet 类型作为参数直接传递给服务端
WCF默认支持这么做,直接传Datatable不行。
你看一下 “服务引用设置”中你选的 类型是什么,我选的是SystemArray
字典 类型是默认第一项 SystemCollectionsGenericDictionary
又是一个把自己架在火上烤的需求啊,
如果不考虑传输因素,可以调整wcf配置,提升传递的容量,如果是对象传递可能还要调整对象层次的深度
自己写了个事务处理类,提供一个静态的启动事务方法,然后就是Commit,Rollback方法,再利用GUID作为事务ID。有事务处理类管理本地数据库链接和远程跨域服务信息,利用这些信息在Commit或者rollback时进行提交或者回滚,在数据库级上并行执行命令,需要对远程跨域提交或者回滚的,结合一个远程事务池、远程事务服务类和远程事务服务调用代理类(就提交和回滚两个方法)进行处理,其中用事务ID贯穿始终。当然,所有的数据访问层,数据库访问层都来由一个事务类参数,没有事务的话就为空。由逻辑处理层决定是否采用事务处理。做的就这么简单,结果感觉还可以;当然这个模式有个致命的弱点,就是无法解决Commit一致性问题,就是如果涉及到多个数据库时,如果前N-1个数据库服务都提交成功,第N个数据库提交失败就没办法了。在跨区域事务方面问题比较大,但如果是局域网还是可以的。这种方式比较适合数据分布存储(非镜像)的情况,当然,数据分割的时候需要将大部分的 *** 作都集中在一个中心,毕竟跨区域访问还是有些慢得。
这次整得这个架构,可以分布式查询,同时更新多个数据库(可以控制到表级),并对业务逻辑层透明,速度和易用性感觉都还不错,而且业务层处理事务的时候可以支持搭积木方式进行。
这个架构带有云应用架构的味道,可以分业务,分用户存放数据,应用部分也可以支持多中心,多负载方式,理论上来讲扩展性无限。当然,因为主要的目的不是做镜像同步支持,所以我没有加入数据库命令队列处理方式来保证可靠性,在数据库节点方面只是简单的采用了同时更新3份,查询则随机选其中一份的方式。对于企业级业务,特别是高实时性和一致性的应用,如果跨数据库,事务处理和可靠性保证要一起做,真的很难。所以后来放弃了自己做可靠性那部分(就是同时写3份,随机读一份那部分功能),让数据库自己去做,毕竟他们更专业。
这个架构主要技术点:多线程(实现不同目标数据库查询异步进行),ODPNet,WCF(跨域访问),事务,同步(简单的采用Lock),反射机制,泛型等
正好我也刚完成了该科目, UDP 外网与内网打洞技术其实理解了就会觉得太简单不过的了。
公认UDP 是最高效的。 QQ通信都是以UDP为主的,TCP作为辅,夸张的解答你该学习 TCP/IP 还是WCF : 有两个人都是做电脑维修的,一个人只学(WCF)拆装 主板,声卡,显卡,内存等,人家拿电脑来给他修通常都说是这板坏那板坏 要换这个板那个板的,
一个人学(Tcp/ip) 芯片的原理,结构,及电路的各种知识,人家拿电脑来修,通常他就来个示波器、万用表检查一下换换某个芯片 ,或电容,场管之类的就解决了。。
本机telnet尝试一下端口先验证本机的服务是否正常,如果正常,在看客户机到服务器的网络是否正常,如果正常,再telnet尝试验证,如果端口不通,则可能是防火墙或杀毒软件之类软件阻止了端口通讯
可以处理的,步骤为:
1客户端与服务器连(用Socket通讯)
2客户端向处服务器发送SQL语句,如搜索一个表的数据
3服务器接到请求,执行SQL语句返回一个DataTable
4服务器将这个DataTable进行序列化、并且压缩
5服务器将序列化和压缩后的byte[] msg数组传给客户端
6客户端收到byte[] msg数组先进行解压缩、和反序列化为DataTable
7再将DataTable通过DataSet和SqlDataAdapterUpdate(Table)存在SQL中
下面我只给一些关键的代码,我有实现过的
第一步客户端==》连接服务器并通讯,主要是发送SQL给服务器返回一个DataTable表
using System;
using SystemCollectionsGeneric;
using SystemComponentModel;
using SystemData;
using SystemDrawing;
using SystemLinq;
using SystemText;
using SystemWindowsForms;
using SystemNet;
using SystemNetSockets;
using SystemXml;
using SystemXmlSerialization;
using SystemIO;
using SystemIOCompression;
namespace Client
{
public partial class FormClient : Form
{
DataTable dt;
public FormClient()
{
InitializeComponent();
}
private void ClientTest(string str)
{
Socket client;
String returnData;
byte[] buf = new byte[9991024]; //此处可能有些问题
//IPAddress local = IPAddressParse("1162583127");
IPAddress local = IPAddressParse("127001");//可改为远程IP地址
IPEndPoint iep = new IPEndPoint(local, 6060);
try
{
client = new Socket(AddressFamilyInterNetwork, SocketTypeStream, ProtocolTypeTcp);
clientConnect(iep);
}
catch (SocketException)
{
ConsoleWriteLine("无法连接到服务器!");
return ;
}
//输入exit,可以断开与服务器的连接
if (str == "")
{
return;
}
//发送SQL语句给服务器
clientSend(EncodingUnicodeGetBytes(str));
//得到实际收到的字节总数
Int32 rec = clientReceive(buf);
ConsoleWriteLine(EncodingASCIIGetString(buf, 0, rec));
//接收服务器返回的数据
returnData = SystemTextEncodingUnicodeGetString(buf,0,rec);
//将returnData解压缩后,再反序列化转成DataTable dt = DeserializerDataTable(Decompress(returnData));
ConsoleWriteLine("断开与服务器的连接");
clientClose();
dataGridView1DataSource = dt;
}
//将DataTable表反序列化
private DataTable DeserializerDataTable(string pXml)
{
StringReader strReader = new StringReader(pXml);
XmlReader xmlReader = XmlReaderCreate(strReader);
XmlSerializer serializer = new XmlSerializer(typeof(DataTable));
DataTable dt = serializerDeserialize(xmlReader) as DataTable;
return dt; }
//给服务器传SQL语句
private void buttonSearch_Click(object sender, EventArgs e)
{
string Sql = StringFormat("Select top {0} From Part Where CorpCode_='PT'", textBox1TextTrim()); ;
ClientTest(Sql);
}
#region 压缩和解压缩
public string Compress(string str)
{
byte[] buffer = EncodingUnicodeGetBytes(str);
MemoryStream ms = new MemoryStream();
using (GZipStream zip = new GZipStream(ms, CompressionModeCompress, true))
{
zipWrite(buffer, 0, bufferLength);
}
msPosition = 0;
MemoryStream outStream = new MemoryStream();
byte[] compressed = new byte[msLength];
msRead(compressed, 0, compressedLength);
byte[] gzBuffer = new byte[compressedLength + 4];
SystemBufferBlockCopy(compressed, 0, gzBuffer, 4, compressedLength);
SystemBufferBlockCopy(BitConverterGetBytes(bufferLength), 0, gzBuffer, 0, 4);
return ConvertToBase64String(gzBuffer);
}
//解压缩
public string Decompress(string compressedText)
{
byte[] gzBuffer = ConvertFromBase64String(compressedText);
using (MemoryStream ms = new MemoryStream())
{
int msgLength = BitConverterToInt32(gzBuffer, 0);
msWrite(gzBuffer, 4, gzBufferLength - 4);
byte[] buffer = new byte[msgLength];
msPosition = 0;
using (GZipStream zip = new GZipStream(ms, CompressionModeDecompress))
{
zipRead(buffer, 0, bufferLength);
}
return EncodingUnicodeGetString(buffer);
}
}
#endregion
}
}
第二步服务器收到SQL语句执行,并回传一个表给客户端
服务器接到请求,执行SQL语句返回一个DataTable
服务器将这个DataTable进行序列化、并且压缩
服务器将序列化和压缩后的byte[] msg数组传给客户端
using System;
using SystemCollectionsGeneric;
using SystemComponentModel;
using SystemData;
using SystemDrawing;
using SystemLinq;
using SystemText;
using SystemWindowsForms;
using SystemNet;
using SystemNetSockets; //可以使用套接字
using SystemThreading; //可以使用多线程
using SystemDataSqlClient;
using SystemXml;
using SystemXmlSerialization;
using SystemIO;
using SystemIOCompression;
namespace AppServer
{
public partial class FormApp : Form
{
public FormApp()
{
InitializeComponent();
}
private void FormApp_Load(object sender, EventArgs e)
{
// AppService instance = new AppService();
}
private void buttonStartService_Click(object sender, EventArgs e)
{
AppService();
}
private Socket server;
private Socket client;
private void AppService()
{
/
//本机IP
string name = DnsGetHostName();
IPHostEntry host = DnsGetHostByName(name);
IPAddress id= hostAddressList[0];
/
//IPAddress local = IPAddressParse("1921680100");
IPEndPoint iep = new IPEndPoint(IPAddressAny, 6060);
server = new Socket(AddressFamilyInterNetwork, SocketTypeStream, ProtocolTypeTcp);
// 将套接字与本地终结点绑定
serverBind(iep);
//在本地13000端口号上进行监听
serverListen(10);
while (true)
{
// 得到包含客户端信息的套接字
client = serverAccept();
//创建消息服务线程对象ClientService方法委托给线程
Thread newthread = new Thread(new ThreadStart(ClientService));
// 启动消息服务线程
newthreadStart();
}
}
private Int32 i;
private void ClientService()
{
Socket s = client;
String data = null;
String returnData = null;
byte[] bytes = new byte[1024];
while ((i = sReceive(bytes)) != 0)
{
//接收客户端的SQL
data = SystemTextEncodingUnicodeGetString(bytes, 0, i);
//将接到的String 执行SQL返回表
DBAccess obj = new DBAccess(); //专门传给SQL的类相当于DBHELP
DataTable dt = objFillData(data, "TEST", 1);//执行SQL返回表
//将返回的表转为String,并将returnData压缩
returnData = objCompress(objSerializeDataTableXml(dt));
byte[] msg = SystemTextEncodingUnicodeGetBytes(returnData);
// 发送数据表给客户端 sSend(msg);
if ((i = sReceive(bytes)) == 0)
continue;
}
//关闭套接字
sClose();
}
}
//DBAccess的部份代码
class DBAccess
{
#region DataTable序列化与反序列化
public string SerializeDataTableXml(DataTable dt)
{
StringBuilder sb = new StringBuilder();
XmlWriter writer = XmlWriterCreate(sb);
XmlSerializer serializer = new XmlSerializer(typeof(DataTable));
serializerSerialize(writer, dt);
writerClose();
return sbToString(); }
public DataTable DeserializerDataTable(string pXml)
{
StringReader strReader = new StringReader(pXml);
XmlReader xmlReader = XmlReaderCreate(strReader);
XmlSerializer serializer = new XmlSerializer(typeof(DataTable));
DataTable dt = serializerDeserialize(xmlReader) as DataTable;
return dt; }
#endregion
#region 压缩和解压缩
public string Compress(string str)
{
byte[] buffer = EncodingUnicodeGetBytes(str);
MemoryStream ms = new MemoryStream();
using (GZipStream zip = new GZipStream(ms, CompressionModeCompress, true))
{
zipWrite(buffer, 0, bufferLength);
}
msPosition = 0;
MemoryStream outStream = new MemoryStream();
byte[] compressed = new byte[msLength];
msRead(compressed, 0, compressedLength);
byte[] gzBuffer = new byte[compressedLength + 4];
SystemBufferBlockCopy(compressed, 0, gzBuffer, 4, compressedLength);
SystemBufferBlockCopy(BitConverterGetBytes(bufferLength), 0, gzBuffer, 0, 4);
return ConvertToBase64String(gzBuffer);
}
public string Decompress(string compressedText)
{
byte[] gzBuffer = ConvertFromBase64String(compressedText);
using (MemoryStream ms = new MemoryStream())
{
int msgLength = BitConverterToInt32(gzBuffer, 0);
msWrite(gzBuffer, 4, gzBufferLength - 4);
byte[] buffer = new byte[msgLength];
msPosition = 0;
using (GZipStream zip = new GZipStream(ms, CompressionModeDecompress))
{
zipRead(buffer, 0, bufferLength);
}
return EncodingUnicodeGetString(buffer);
}
}
#endregion
}
第三步调用DataSet和SqlDataAdapterUpdate(Table)存在SQL中,这个是传入一个DataGridView ,可在客户端中使用保存(部份代码,没有连接SQL数据库的)
#region 公共保存DataGridView
public bool DataGridViewSave(DataTable table,string tableName,string CorpCode)
{
string Sql = StringFormat("Select Top 0 From {0} Where CorpCode_='{1}' ", tableName, CorpCode);
SqlDataAdapter sda = new SqlDataAdapter(thisCreateCommand(Sql, null, 1));
SqlCommandBuilder scb = new SqlCommandBuilder(sda);
sdaUpdate(table);
thisClose();
return true;
}
#endregion
Redis是一个不错的缓存数据库,读取数据速度效率都很不错。今天大家共同研究下redis的用法。结合网上的资料和自己的摸索,先来看下安装与配置把。咱们主要看在WINDOWS上怎样使用REDIS数据库。
下载地址:>
以上就是关于求教关于c#的WCF的问题全部的内容,包括:求教关于c#的WCF的问题、如何优化 *** 作大数据量数据库、求助:跨域事务的解决方案等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)