Linux设备驱动程序允许FPGA直接DMA到CPU RAM

Linux设备驱动程序允许FPGA直接DMA到CPU RAM,第1张

概述我正在编写一个 Linux设备驱动程序,允许FPGA(目前通过PCI Express连接到PC)将DMA数据直接写入CPU RAM.这需要在没有任何交互的情况下发生,并且用户空间需要访问数据.一些细节: – 运行64位Fedora 14 – 系统有8GB的RAM – FPGA(Cyclone IV)位于PCIe卡上 为了实现这一目标,我执行了以下 *** 作: – 使用memmap 6GB $2GB保留g 我正在编写一个 Linux设备驱动程序,允许FPGA(目前通过PCI Express连接到PC)将DMA数据直接写入cpu RAM.这需要在没有任何交互的情况下发生,并且用户空间需要访问数据.一些细节:
– 运行64位Fedora 14
– 系统有8GB的RAM
– FPGA(Cyclone IV)位于PCIE卡上

为了实现这一目标,我执行了以下 *** 作:
– 使用memmap 6GB $2GB保留grub中的2GB内存(不启动是我添加内存= 2GB).我可以看到,在/ proc / meminfo中保留了2GB的RAM
– 映射bar0以允许读取和写入FPGA寄存器(这非常有效)
– 在我的驱动程序中使用remap_pfn_range()实现了一个mmap函数
– 使用ioremap获取缓冲区的虚拟地址
– 添加了ioctl调用(用于测试)以将数据写入缓冲区
– 通过进行ioctl调用将数据写入缓冲区并验证数据是否来自用户空间的缓冲区来测试mmap

我面临的问题是当FPGA开始将DMA数据发送到我提供的缓冲区地址时.我不断得到PTE错误(来自DMAR :)或使用下面的代码我得到以下错误:
DMAR:[DMA写入]请求设备[01:00.0]故障添加器186dc5000
DMAR:[错误原因01]根条目中的当前位清除
DRHD:处理故障状态reg 3

第一行中的地址每次基于来自FPGA的DMA递增0x1000

这是我的init()代码:

#define img_BUF_OFFSET     0x180000000ul // Location in RAM (6GB)#define img_BUF_SIZE       0x80000000ul  // Size of the Buffer (2GB)#define pci_dma_h(addr) ((addr >> 16) >> 16)#define pci_dma_l(addr) (addr & 0xfffffffful)if((pdev = pci_get_device(FPGA_VEN_ID,FPGA_DEV_ID,NulL))){    printk("FPGA Found on the PCIE Bus\n");    //  Enable the device     if(pci_enable_device(pdev))    {        printk("Failed to enable PCI device\n");        return(-1);    }    //  Enable bus master    pci_set_master(pdev);    pci_read_config_word(pdev,PCI_vendOR_ID,&ID);    printk("vendor ID: %x\n",ID);    pci_read_config_word(pdev,PCI_DEVICE_ID,&ID);    printk("Device ID: %x\n",PCI_STATUS,&ID);    printk("Device Status: %x\n",ID);    pci_read_config_DWord(pdev,PCI_COMMAND,&temp);    printk("Command Register : : %x\n",temp);    printk("Resources Allocated :\n");    pci_read_config_DWord(pdev,PCI_BASE_ADDRESS_0,&temp);    printk("bar0 : %x\n",temp);  // Get the starting address of bar0  bar0_ptr = (unsigned int*)pcim_iomap(pdev,FPGA_CONfig_SIZE);  if(!bar0_ptr)  {     printk("Error mapPing bar0\n");     return -1;  }  printk("Remapped bar0\n");  // Set DMA Masking  if(!pci_set_dma_mask(pdev,DMA_BIT_MASK(64)))   {     pci_set_consistent_dma_mask(pdev,DMA_BIT_MASK(64));     printk("Device setup for 64bit DMA\n");  }  else if(!pci_set_dma_mask(pdev,DMA_BIT_MASK(32)))  {     pci_set_consistent_dma_mask(pdev,DMA_BIT_MASK(32));     printk("Device setup for 32bit DMA\n");  }  else  {     printk(KERN_WARNING"No suitable DMA available.\n");     return -1;  }  // Get a pointer to reserved lower RAM in kernel address space (virtual address)  virt_addr = ioremap(img_BUF_OFFSET,img_BUF_SIZE);  kernel_image_buffer_ptr = (unsigned char*)virt_addr;  memset(kernel_image_buffer_ptr,img_BUF_SIZE);  printk("Remapped image buffer: 0x%p\n",(voID*)virt_addr);

}

这是我的mmap代码:

unsigned long image_buffer;unsigned int  low;unsigned int  high;if(remap_pfn_range(vma,vma->vm_start,vma->vm_pgoff,vma->vm_end - vma->vm_start,vma->vm_page_prot)){   return(-EAGAIN);}image_buffer = (vma->vm_pgoff << PAGE_SHIFT);if(0 > check_mem_region(img_BUF_OFFSET,img_BUF_SIZE)){   printk("Failed to check region...memory in use\n");   return -1;}request_mem_region(img_BUF_OFFSET,img_BUF_SIZE,DRV_name);// Get the bus address from the virtual address above//dma_page   = virt_to_page(addr);//dma_offset = ((unsigned long)addr & ~PAGE_MASK);//dma_addr   = pci_map_page(pdev,dma_page,dma_offset,PCI_DMA_FROMDEVICE);    //dma_addr = pci_map_single(pdev,image_buffer,PCI_DMA_FROMDEVICE);   //dma_addr = img_BUF_OFFSET;//printk("DMA Address: 0x%p\n",(voID*)dma_addr);// Write start or image buffer address to the FPGAlow  = pci_dma_l(image_buffer);low &= 0xfffffffc;high = pci_dma_h(image_buffer);if(high != 0)   low |= 0x00000001;*(bar0_ptr + (17024/4)) = 0;//printk("DMA Address LOW : 0x%x\n",cpu_to_le32(low));//printk("DMA Address HIGH: 0x%x\n",cpu_to_le32(high));*(bar0_ptr + (4096/4))  = cpu_to_le32(low); //2147483649; *(bar0_ptr + (4100/4))  = cpu_to_le32(high); *(bar0_ptr + (17052/4)) = cpu_to_le32(low & 0xfffffffe);//2147483648;printk("Process Read Command: Addr:0x%x Ret:0x%x\n",4096,*(bar0_ptr + (4096/4)));printk("Process Read Command: Addr:0x%x Ret:0x%x\n",4100,*(bar0_ptr + (4100/4)));printk("Process Read Command: Addr:0x%x Ret:0x%x\n",17052,*(bar0_ptr + (17052/4)));return(0);

感谢您提供任何帮助.

解决方法 您是否自己控制了写入TLP数据包的RTL代码,或者您是否可以命名正在使用的DMA引擎和PCIE BFM(总线功能模型)?您的数据包在模拟器中看起来像什么?最体面的BFM应该捕获这个而不是让你在使用PCIE硬件捕获系统进行部署后找到它.

要定位RAM的高2GB,您需要从设备发送2DW(64位)地址.您的Fmt / Type中的位是否设置为执行此 *** 作?故障地址看起来像一个屏蔽的32位总线地址,所以这个级别的东西可能不正确.还要记住,因为PCIE是big-endian,在将目标地址写入PCIE设备端点时要小心.如果Fmt不正确,您可能会将目标地址的较低字节落入有效负载中 – 同样适当的BFM应该发现结果数据包长度不匹配.

如果您有最近的主板/现代cpu,PCIE端点应该执行PCIE AER(高级错误报告),因此如果运行最近的Centos / RHEL 6.3,您应该获得端点故障的dmesg报告.这非常有用,因为报告将数据包的第一批DW捕获到特殊捕获寄存器,因此您可以查看收到的TLP.

在你的内核驱动程序中,我看到你设置了DMA掩码,这还不够,因为你没有编程mmu来允许从设备写入页面.查看pci_alloc_consistent()的实现,看看你应该调用什么来实现这一点.

总结

以上是内存溢出为你收集整理的Linux设备驱动程序允许FPGA直接DMA到CPU RAM全部内容,希望文章能够帮你解决Linux设备驱动程序允许FPGA直接DMA到CPU RAM所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/1047513.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-05-25
下一篇 2022-05-25

发表评论

登录后才能评论

评论列表(0条)

保存