不大确定,从页面源码是看不出后台是用什么开发的,因为无论JSP还是PHP都会被解释称HTML。
因为12306很大的可能性是由阿里巴巴开发的,而淘宝是由php(前台,动态页面的展示) + Java(后台,数据的处理、交互)开发的。
所以12306用Java开发的可能性很大,也有可能是用php + Java,因为前台的展示方面php要优于Java。
能肯定的是,用了AJAX局技术,但是没有达到全网页局部刷新,有部分达不到局部刷新。
铁路12306可以按车次查询列车时刻表,方法如下:工具/材料:iphone13,IOS132,铁路123065516。1点击我的首先进入铁路12306界面,点击右下角我的。2点击时间表进入我的界面后,点击时刻表。
package tmp;
public class Test {
private static int k=0;//售出票数
private static int count=1000;//总票数
private static synchronized boolean sell(int n){
if(k<count){
k++;
Systemoutprintln("第"+n+"售票点售出第"+k+"张票");
return true;
}
return false;
}
static class SellPot extends Thread{//售票点
int n;//售票点编号
public SellPot(int n){
thisn=n;
}
public void run(){
while(sell(n)){
try {
Threadsleep(100);
} catch (InterruptedException e) {
eprintStackTrace();
}
}
}
}
public static void main(String[] args) {
for(int i=1;i<=10;i++){
new SellPot(i)start();
}
}
}
//银行汇款
public class Test2 {
private static int k=0;//总汇款
private static synchronized void send(int m,int i,int n){
k+=m;
Systemoutprintln("第"+n+"个顾客进行第"+(i+1)+"次汇款,银行接收总汇款"+k);
}
static class Costum extends Thread{//售票点
int n;//顾客编号
public Costum(int n){
thisn=n;
}
public void run(){
for(int i=0;i<3;i++){
send(100,i,n);//汇款100
try {
Threadsleep(100);
} catch (InterruptedException e) {
eprintStackTrace();
}
}
}
}
public static void main(String[] args) {
for(int i=1;i<=3;i++){
new Costum(i)start();
}
}
}
网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。\x0d\传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。对于垂直搜索来说,聚焦爬虫,即有针对性地爬取特定主题网页的爬虫,更为适合。\x0d\\x0d\以下是一个使用java实现的简单爬虫核心代码:\x0d\public void crawl() throws Throwable { \x0d\ while (continueCrawling()) { \x0d\ CrawlerUrl url = getNextUrl(); //获取待爬取队列中的下一个URL \x0d\ if (url != null) { \x0d\ printCrawlInfo(); \x0d\ String content = getContent(url); //获取URL的文本信息 \x0d\ \x0d\ //聚焦爬虫只爬取与主题内容相关的网页,这里采用正则匹配简单处理 \x0d\ if (isContentRelevant(content, thisregexpSearchPattern)) { \x0d\ saveContent(url, content); //保存网页至本地 \x0d\ \x0d\ //获取网页内容中的链接,并放入待爬取队列中 \x0d\ Collection urlStrings = extractUrls(content, url); \x0d\ addUrlsToUrlQueue(url, urlStrings); \x0d\ } else { \x0d\ Systemoutprintln(url + " is not relevant ignoring "); \x0d\ } \x0d\ \x0d\ //延时防止被对方屏蔽 \x0d\ Threadsleep(thisdelayBetweenUrls); \x0d\ } \x0d\ } \x0d\ closeOutputStream(); \x0d\}\x0d\private CrawlerUrl getNextUrl() throws Throwable { \x0d\ CrawlerUrl nextUrl = null; \x0d\ while ((nextUrl == null) && (!urlQueueisEmpty())) { \x0d\ CrawlerUrl crawlerUrl = thisurlQueueremove(); \x0d\ //doWeHavePermissionToVisit:是否有权限访问该URL,友好的爬虫会根据网站提供的"Robottxt"中配置的规则进行爬取 \x0d\ //isUrlAlreadyVisited:URL是否访问过,大型的搜索引擎往往采用BloomFilter进行排重,这里简单使用HashMap \x0d\ //isDepthAcceptable:是否达到指定的深度上限。爬虫一般采取广度优先的方式。一些网站会构建爬虫陷阱(自动生成一些无效链接使爬虫陷入死循环),采用深度限制加以避免 \x0d\ if (doWeHavePermissionToVisit(crawlerUrl) \x0d\ && (!isUrlAlreadyVisited(crawlerUrl)) \x0d\ && isDepthAcceptable(crawlerUrl)) { \x0d\ nextUrl = crawlerUrl; \x0d\ // Systemoutprintln("Next url to be visited is " + nextUrl); \x0d\ } \x0d\ } \x0d\ return nextUrl; \x0d\}\x0d\private String getContent(CrawlerUrl url) throws Throwable { \x0d\ //>
以上就是关于12306是用java建立的么全部的内容,包括:12306是用java建立的么、查火车时刻表12306、Java编程 假设有火车票1000张,创建10个线程模拟10个售票点,每个售票点100毫秒售出一张票。等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)