linux为什么不使用utf-16

linux为什么不使用utf-16,第1张

UTF-16几乎是一个损失,两个世界中最糟糕的.它既不紧凑(对于典型的ASCII字符),也不会将每个代码单元映射到一个字符.由于基本多语言平面之外的人物仍然很少使用,但这并没有真正咬过任何人,但它肯定是丑陋的.

如果是JS,可以试试这样 alert(decodeURI('%E8%85%BE'))就是说将UTF8编码每两位为一组,前面加%,然后用decodeURI或decodeURIComponent方法解码,就可还原为所对应的汉字. 或者直接写成函数: function u8decode(code){ return decodeURI(code.replace(/([A-F0-9]{2})/gi,'%$1'))}


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/7080781.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-01
下一篇 2023-04-01

发表评论

登录后才能评论

评论列表(0条)

保存