Tương tự như câu hỏi này, tôi muốn đánh giá (ở chế độ org) Các khối mã nguồn Python chứa các hướng dẫn "đầu vào" nhưng tôi không thể tìm cách đánh giá tương tác (với đầu vào của người dùng) trong khi đánh giá hoặc cung cấp cho nó một số đầu vào trước (được lưu trữ trong một tập tin chẳng hạn).
Hạn chế của tôi là sử dụng input
hướng dẫn một cách rõ ràng vì tất cả những điều này nên được đưa vào sách giáo khoa cho học sinh.
Ví dụ về mã:
#+BEGIN_SRC python :results output
a= input("Value")
print(a)
#+END_SRC
Có thể có một đánh giá tương tác như vậy hoặc mô phỏng nó (bằng cách cung cấp cho mã nguồn một đầu vào giả)?
noweb
ở chế độ org sẽ cho phép bạn kiểm tra và xuất mã của bạn với kết quả.
export
để tạo mã ví dụ cho sinh viên sang một số định dạng khác, ví dụ html?