Home
last modified time | relevance | path

Searched refs:xfer_buflen (Results 1 – 25 of 25) sorted by relevance

/external/fio/engines/
Dglusterfs_sync.c37 dprint(FD_FILE, "fio queue len %lu\n", io_u->xfer_buflen); in fio_gf_queue()
41 ret = glfs_read(g->fd, io_u->xfer_buf, io_u->xfer_buflen, 0); in fio_gf_queue()
43 ret = glfs_write(g->fd, io_u->xfer_buf, io_u->xfer_buflen, 0); in fio_gf_queue()
52 dprint(FD_FILE, "fio len %lu ret %d\n", io_u->xfer_buflen, ret); in fio_gf_queue()
56 if (ret != (int)io_u->xfer_buflen) { in fio_gf_queue()
58 io_u->resid = io_u->xfer_buflen - ret; in fio_gf_queue()
Dsync.c57 if (ret != (int) io_u->xfer_buflen) { in fio_io_end()
59 io_u->resid = io_u->xfer_buflen - ret; in fio_io_end()
85 iov->iov_len = io_u->xfer_buflen; in fio_pvsyncio_queue()
109 ret = pread(f->fd, io_u->xfer_buf, io_u->xfer_buflen, io_u->offset); in fio_psyncio_queue()
111 ret = pwrite(f->fd, io_u->xfer_buf, io_u->xfer_buflen, io_u->offset); in fio_psyncio_queue()
129 ret = read(f->fd, io_u->xfer_buf, io_u->xfer_buflen); in fio_syncio_queue()
131 ret = write(f->fd, io_u->xfer_buf, io_u->xfer_buflen); in fio_syncio_queue()
184 sd->iovecs[idx].iov_len = io_u->xfer_buflen; in fio_vsyncio_set_iov()
185 sd->last_offset = io_u->offset + io_u->xfer_buflen; in fio_vsyncio_set_iov()
188 sd->queued_bytes += io_u->xfer_buflen; in fio_vsyncio_set_iov()
[all …]
Dsplice.c38 buflen = io_u->xfer_buflen; in fio_splice_read_old()
66 return io_u->xfer_buflen; in fio_splice_read_old()
84 mmap_len = buflen = io_u->xfer_buflen; in fio_splice_read()
160 return io_u->xfer_buflen; in fio_splice_read()
172 .iov_len = io_u->xfer_buflen, in fio_splice_write()
199 return io_u->xfer_buflen; in fio_splice_write()
229 if (ret != (int) io_u->xfer_buflen) { in fio_spliceio_queue()
231 io_u->resid = io_u->xfer_buflen - ret; in fio_spliceio_queue()
De4defrag.c153 ret = fallocate(ed->donor_fd, 0, io_u->offset, io_u->xfer_buflen); in fio_e4defrag_queue()
162 len = (io_u->offset + io_u->xfer_buflen + ed->bsz -1); in fio_e4defrag_queue()
168 if (len > io_u->xfer_buflen) in fio_e4defrag_queue()
169 len = io_u->xfer_buflen; in fio_e4defrag_queue()
171 if (len != io_u->xfer_buflen) { in fio_e4defrag_queue()
172 io_u->resid = io_u->xfer_buflen - len; in fio_e4defrag_queue()
Dlibhdfs.c115 if (ret != (int)io_u->xfer_buflen) { in fio_io_end()
117 io_u->resid = io_u->xfer_buflen - ret; in fio_io_end()
139 hdfsRead(hd->fs, hd->fp, io_u->xfer_buf, io_u->xfer_buflen); in fio_hdfsio_queue()
143 io_u->xfer_buflen); in fio_hdfsio_queue()
Dnet.c378 return splice_io_u(io_u->file->fd, nd->pipes[1], io_u->xfer_buflen); in splice_in()
437 return vmsplice_io_u(io_u, nd->pipes[1], io_u->xfer_buflen); in vmsplice_io_u_in()
487 if (io_u->xfer_buflen < sizeof(*us)) in store_udp_seq()
490 us = io_u->xfer_buf + io_u->xfer_buflen - sizeof(*us); in store_udp_seq()
492 us->bs = cpu_to_le64((uint64_t) io_u->xfer_buflen); in store_udp_seq()
502 if (io_u->xfer_buflen < sizeof(*us)) in verify_udp_seq()
508 us = io_u->xfer_buf + io_u->xfer_buflen - sizeof(*us); in verify_udp_seq()
511 if (le64_to_cpu(us->bs) != io_u->xfer_buflen) { in verify_udp_seq()
547 io_u->xfer_buflen, flags, to, len); in fio_netio_send()
553 if ((td->this_io_bytes[DDIR_WRITE] + io_u->xfer_buflen < in fio_netio_send()
[all …]
Dlibaio.c73 io_prep_pread(&io_u->iocb, f->fd, io_u->xfer_buf, io_u->xfer_buflen, io_u->offset); in fio_libaio_prep()
75 io_prep_pwrite(&io_u->iocb, f->fd, io_u->xfer_buf, io_u->xfer_buflen, io_u->offset); in fio_libaio_prep()
91 if (ev->res != io_u->xfer_buflen) { in fio_libaio_event()
92 if (ev->res > io_u->xfer_buflen) in fio_libaio_event()
95 io_u->resid = io_u->xfer_buflen - ev->res; in fio_libaio_event()
Dwindowsaio.c326 success = WriteFile(io_u->file->hFile, io_u->xfer_buf, io_u->xfer_buflen, &iobytes, lpOvl); in fio_windowsaio_queue()
329 success = ReadFile(io_u->file->hFile, io_u->xfer_buf, io_u->xfer_buflen, &iobytes, lpOvl); in fio_windowsaio_queue()
345 io_u->resid = io_u->xfer_buflen; in fio_windowsaio_queue()
357 io_u->resid = io_u->xfer_buflen; in fio_windowsaio_queue()
385 io_u->resid = io_u->xfer_buflen - ovl->InternalHigh; in IoCompletionRoutine()
388 io_u->resid = io_u->xfer_buflen; in IoCompletionRoutine()
Dfusion-aw.c54 if (io_u->xfer_buflen % d->xfer_buflen_align) { in queue()
60 if (io_u->xfer_buflen > d->xfer_buflen_max) { in queue()
67 io_u->xfer_buflen, io_u->offset / d->sector_size); in queue()
Dmmap.c175 memcpy(io_u->xfer_buf, io_u->mmap_data, io_u->xfer_buflen); in fio_mmapio_queue()
177 memcpy(io_u->mmap_data, io_u->xfer_buf, io_u->xfer_buflen); in fio_mmapio_queue()
195 if (msync(io_u->mmap_data, io_u->xfer_buflen, MS_SYNC) < 0) { in fio_mmapio_queue()
199 if (posix_madvise(io_u->mmap_data, io_u->xfer_buflen, POSIX_MADV_DONTNEED) < 0) { in fio_mmapio_queue()
Dglusterfs_async.c110 r = glfs_pread_async(g->fd, io_u->xfer_buf, io_u->xfer_buflen, in fio_gf_async_queue()
113 r = glfs_pwrite_async(g->fd, io_u->xfer_buf, io_u->xfer_buflen, in fio_gf_async_queue()
117 r = glfs_discard_async(g->fd, io_u->offset, io_u->xfer_buflen, in fio_gf_async_queue()
Dguasi.c70 if (rinf.result != (long) io_u->xfer_buflen) { in fio_guasi_event()
72 io_u->resid = io_u->xfer_buflen - rinf.result; in fio_guasi_event()
164 f->fd, io_u->xfer_buf, io_u->xfer_buflen, in fio_guasi_commit()
168 f->fd, io_u->xfer_buf, io_u->xfer_buflen, in fio_guasi_commit()
Dsolarisaio.c60 io_u->resid = io_u->xfer_buflen - io_u->resultp.aio_return; in wait_for_event()
141 ret = aioread(f->fd, io_u->xfer_buf, io_u->xfer_buflen, off, in fio_solarisaio_queue()
144 ret = aiowrite(f->fd, io_u->xfer_buf, io_u->xfer_buflen, off, in fio_solarisaio_queue()
Dposixaio.c83 aiocb->aio_nbytes = io_u->xfer_buflen; in fio_posixaio_prep()
134 io_u->resid = io_u->xfer_buflen; in fio_posixaio_getevents()
138 io_u->resid = io_u->xfer_buflen - retval; in fio_posixaio_getevents()
Drbd.c193 io_u->resid = io_u->xfer_buflen; in _fio_rbd_finish_aiocb()
352 r = rbd_aio_write(rbd->image, io_u->offset, io_u->xfer_buflen, in fio_rbd_queue()
360 r = rbd_aio_read(rbd->image, io_u->offset, io_u->xfer_buflen, in fio_rbd_queue()
369 io_u->xfer_buflen, fri->completion); in fio_rbd_queue()
Dsg.c49 hdr->dxfer_len = io_u->xfer_buflen; in sgio_hdr_init()
211 if (io_u->xfer_buflen & (sd->bs - 1)) { in fio_sgio_prep()
234 nr_blocks = io_u->xfer_buflen / sd->bs; in fio_sgio_prep()
Dfalloc.c88 ret = fallocate(f->fd, flags, io_u->offset, io_u->xfer_buflen); in fio_fallocate_queue()
Dbinject.c43 buc->len = io_u->xfer_buflen; in binject_buc_init()
192 if (io_u->xfer_buflen & (bf->bs - 1)) { in fio_binject_prep()
/external/fio/
Dioengines.c299 td->io_issue_bytes[acct_ddir(io_u)] += io_u->xfer_buflen; in td_io_queue()
308 td->io_issue_bytes[acct_ddir(io_u)] -= io_u->xfer_buflen; in td_io_queue()
556 ret = io_u->xfer_buflen; in do_io_u_sync()
562 ret = io_u->xfer_buflen; in do_io_u_sync()
581 ret = os_trim(f->fd, io_u->offset, io_u->xfer_buflen); in do_io_u_trim()
583 return io_u->xfer_buflen; in do_io_u_trim()
Dtrim.c64 io_u->xfer_buflen = io_u->buflen; in get_next_trim()
Dioengine.h66 unsigned long xfer_buflen; member
Dbackend.c578 int bytes = io_u->xfer_buflen - io_u->resid; in do_verify()
589 io_u->xfer_buflen = io_u->resid; in do_verify()
840 int bytes = io_u->xfer_buflen - io_u->resid; in do_io()
857 io_u->xfer_buflen = io_u->resid; in do_io()
878 bytes_issued += io_u->xfer_buflen; in do_io()
889 bytes_issued += io_u->xfer_buflen; in do_io()
Dio_u.c1489 io_u->xfer_buflen); in get_io_u()
1510 io_u->xfer_buflen = io_u->buflen; in get_io_u()
1539 io_u->offset, io_u->xfer_buflen); in io_u_log_error()
1834 add_slat_sample(td, io_u->ddir, slat_time, io_u->xfer_buflen, in io_u_queued()
Diolog.c314 ipo->len = io_u->xfer_buflen - io_u->resid; in trim_io_piece()
Dverify.c1127 io_u->xfer_buflen = io_u->buflen; in get_next_verify()