]> xenbits.xen.org Git - xenclient/ioemu.git/commitdiff
Reinstate bounce-buffer-based cpu_physical_memory_[un]map for ia64
authorIan Jackson <ian.jackson@eu.citrix.com>
Fri, 3 Apr 2009 15:17:22 +0000 (16:17 +0100)
committerIan Jackson <Ian.Jackson@eu.citrix.com>
Fri, 3 Apr 2009 15:17:22 +0000 (16:17 +0100)
This patch fixes the compilation error caused by the change set
of 191158d4c289d1bf7c154ad6b51f776f680982d5.
ia64 doesn't support mapcache yet, so not-mapcache version
of cpu_physical_memory_map/unmap are still necessary.

Signed-off-by: Isaku Yamahata <yamahata@valinux.co.jp>
i386-dm/exec-dm.c

index 2e4b5afc53eedb1a44c35e20d93c56d717c24102..40c886847fc8ef185f7f8264d85ab948e76ecc12 100644 (file)
@@ -795,6 +795,7 @@ static void cpu_notify_map_clients(void)
     }
 }
 
+#ifdef MAPCACHE
 /* Map a physical memory region into a host virtual address.
  * May map a subset of the requested range, given by and returned in *plen.
  * May return NULL if resources needed to perform the mapping are exhausted.
@@ -821,3 +822,71 @@ void cpu_physical_memory_unmap(void *buffer, target_phys_addr_t len,
 {
     qemu_invalidate_entry(buffer);
 }
+#else
+/* Map a physical memory region into a host virtual address.
+ * May map a subset of the requested range, given by and returned in *plen.
+ * May return NULL if resources needed to perform the mapping are exhausted.
+ * Use only for reads OR writes - not for read-modify-write operations.
+ * Use cpu_register_map_client() to know when retrying the map operation is
+ * likely to succeed.
+ */
+void *cpu_physical_memory_map(target_phys_addr_t addr,
+                              target_phys_addr_t *plen,
+                              int is_write)
+{
+    target_phys_addr_t len = *plen;
+    target_phys_addr_t done = 0;
+    int l;
+    uint8_t *ret = NULL;
+    uint8_t *ptr;
+    target_phys_addr_t page;
+    PhysPageDesc *p;
+    unsigned long addr1;
+
+    while (len > 0) {
+        page = addr & TARGET_PAGE_MASK;
+        l = (page + TARGET_PAGE_SIZE) - addr;
+        if (l > len)
+            l = len;
+
+        if (done || bounce.buffer) {
+            break;
+        }
+       bounce.buffer = qemu_memalign(TARGET_PAGE_SIZE, TARGET_PAGE_SIZE);
+        bounce.addr = addr;
+        bounce.len = l;
+        if (!is_write) {
+            cpu_physical_memory_rw(addr, bounce.buffer, l, 0);
+        }
+        ptr = bounce.buffer;
+
+        if (!done) {
+            ret = ptr;
+        } else if (ret + done != ptr) {
+            break;
+        }
+
+        len -= l;
+        addr += l;
+        done += l;
+    }
+    *plen = done;
+    return ret;
+}
+
+/* Unmaps a memory region previously mapped by cpu_physical_memory_map().
+ * Will also mark the memory as dirty if is_write == 1.  access_len gives
+ * the amount of memory that was actually read or written by the caller.
+ */
+void cpu_physical_memory_unmap(void *buffer, target_phys_addr_t len,
+                               int is_write, target_phys_addr_t access_len)
+{
+    assert(buffer == bounce.buffer);
+    if (is_write) {
+        cpu_physical_memory_write(bounce.addr, bounce.buffer, access_len);
+    }
+    qemu_free(bounce.buffer);
+    bounce.buffer = NULL;
+    cpu_notify_map_clients();
+}
+#endif